home *** CD-ROM | disk | FTP | other *** search
/ Languguage OS 2 / Languguage OS II Version 10-94 (Knowledge Media)(1994).ISO / language / parallel / parallel.txt < prev    next >
Text File  |  1994-10-22  |  2MB  |  57,437 lines

  1. Approved: parallel@hubcap.clemson.edu
  2. Follow-up: comp.parallel
  3. Path: bounce-back
  4. Newsgroups: comp.parallel
  5. From: igl@ecs.soton.ac.uk (Ian Glendinning)
  6. Subject: Re: MPI(message passing interface)standards
  7. Organization: Electronics and Computer Science, University of Southampton
  8. References: <1993Sep29.124012.6790@hubcap.clemson.edu>
  9.  
  10. In <1993Sep29.124012.6790@hubcap.clemson.edu> chu@feldspar.egr.msu.edu (Yung-Kang Chu) writes:
  11.  
  12. >I would like to request some information (ftp address) about
  13. >the new MPI standard. If you know anything about MPI forum,
  14. >please send e-mail to me.
  15.  
  16. This may be of interest to more people, so I'll post it here.  Information
  17. about the standard can be obtained by e-mail from netlib.  You can find out
  18. what files are available by sending a message to netlib@ornl.gov with a
  19. blank subject line, and containing the single line:
  20.  
  21. send index from mpi
  22.  
  23. It also tells you how to fetch the files, which include a recent draft of
  24. the standard.  There will be a tutorial on MPI at the Supercomputing '93
  25. conference in Portland, Oregon, in November.
  26.    Ian
  27. --
  28. I.Glendinning@ecs.soton.ac.uk        Ian Glendinning
  29. Tel: +44 703 593368                  Dept of Electronics and Computer Science
  30. Fax: +44 703 593045                  University of Southampton SO9 5NH England
  31.  
  32. Approved: parallel@hubcap.clemson.edu
  33. Follow-up: comp.parallel
  34. Path: bounce-back
  35. Newsgroups: comp.parallel
  36. From: ahearn@fys.ruu.nl (Tony Hearn)
  37. Subject: POSTDOC POSITION, THE NETHERLANDS
  38. Keywords: magnetohydrodynamics, parallel computing
  39. Organization: Physics Department, University of Utrecht, The Netherlands
  40. Date: Wed, 29 Sep 1993 15:24:39 GMT
  41.  
  42.                              PLEASE POST    
  43.  
  44.  
  45.  
  46.                           POSTDOCTORAL POSITION 
  47.  
  48.         ASTRONOMICAL INSTITUTE, UTRECHT UNIVERSITY, THE NETHERLANDS
  49.  
  50.       PARALLEL COMPUTATION OF MAGNETOHYDRODYNAMICS IN THERMONUCLEAR AND 
  51.                           ASTROPHYSICAL PLASMAS
  52.  
  53.  
  54.    The Astronomical Institute in the Department of Physics and Astronomy
  55. at Utrecht University in the Netherlands has a postdoctoral position 
  56. available for two years for research on parallel computing applied
  57. to time dependent magnetohydrodynamics of astrophysical and thermonuclear 
  58. plasmas. 
  59.    The successful candidate will work in a group of four postdocs. Two
  60. are working on time dependent magnetohydrodynamics calculations applied
  61. to astrophysics and plasma physics and two will  work on parallel computing 
  62. applied to time dependent magnetohydrodynamics. The group is divided 
  63. between the Astronomical Institute, Utrecht University and the FOM 
  64. Institute for Plasma Physics located just outside Utrecht. This work
  65. is a cooperation between the two Institutes and is under the direction
  66. of Professor J.P. Goedbloed, Professor A.G. Hearn and Professor M. Kuperus.
  67. The research into parallel computing is in cooperation with Professor 
  68. H.A. van der Vorst, Mathematics Institute, Utrecht University.
  69.    At present there is a Parsytec GC 512 and an IBM SP1 at Amsterdam, 
  70. and a Thinking Machines CM 5 at Groningen. These computers are accessible 
  71. through the computer network. The Utrecht University Computer Centre
  72. has a Meiko MK200.
  73.    Applications are invited from astrophysicists, physicists and 
  74. computational scientists who have or will shortly obtain a Ph.D.
  75. Experience with the numerical methods of time dependent (magneto)hydrodynamics
  76. and/or parallel computing is an advantage. The salary will be according to age
  77. and experience from Hfl 4100 up to a maximum of Hfl 4600 gross per month 
  78. ( US $1 ~ Hfl 1.80 ). The starting date for the appointment is flexible.      
  79.    Further information may be obtained from Professor A.G. Hearn, preferably
  80. by email. 
  81.    Applications should reach Professor A.G. Hearn before 31st October
  82. 1993. They should contain a curriculum vitae, list of publications,
  83. and a short description of research interests, together with the names and 
  84. addresses (with email addresses if possible) of three persons who may be 
  85. asked to write a reference on the suitability of the applicant for the 
  86. position. Applications may be submitted by email, fax or letter to :-
  87.  
  88.    Professor A. G. Hearn
  89.    Sterrekundig Instituut
  90.    Postbus 80000
  91.    3508 TA Utrecht
  92.    The Netherlands
  93.  
  94.    Email ahearn@fys.ruu.nl
  95.          30453::27752::ahearn
  96.          ahearn@solar.bitnet
  97.  
  98.    Fax   intl +31 30 535201
  99.    Tel.  intl +31 30 535202
  100.  
  101.  
  102.  
  103.  
  104.  
  105.  
  106. -- 
  107. A. G. Hearn
  108. Postbus 80000
  109. 3508 TA Utrecht
  110. The Netherlands
  111.  
  112. Approved: parallel@hubcap.clemson.edu
  113. Follow-up: comp.parallel
  114. Path: bounce-back
  115. Newsgroups: comp.ai.neural-nets,comp.parallel
  116. From: anderson@CS.ColoState.EDU (Chuck Anderson)
  117. Subject: Looking for evaluations of the CNAPS architecture
  118. Sender: news@yuma.ACNS.ColoState.EDU (News Account)
  119. Message-ID: <Sep29.175715.43664@yuma.ACNS.ColoState.EDU>
  120. Nntp-Posting-Host: copland.cs.colostate.edu
  121. Organization: Colorado State University, Computer Science Department
  122.  
  123. I would like to know how the performance of neural network
  124. computations on Adaptive Solutions' CNAPS architecture compares to
  125. that of other SIMD architectures.  Also, any comments about
  126. development effort required for experimenting with non-standard neural
  127. network algorithms using the CNAPS would be helpful.
  128.  
  129. If sufficient interest, I'll summarize the responses and post them to
  130. the net.
  131.     
  132. -- 
  133. Chuck Anderson                    assistant professor
  134. Department of Computer Science    anderson@cs.colostate.edu
  135. Colorado State University         303-491-7491
  136. Fort Collins, CO 80523            FAX: 303-491-6639
  137.  
  138. Approved: parallel@hubcap.clemson.edu
  139. Follow-up: comp.parallel
  140. Path: bounce-back
  141. Newsgroups: comp.parallel
  142. From: kavaklis@ics.forth.gr (Yannis &)
  143. Subject: ICS-FORTH Technical Reports
  144. Organization: Institute of Computer Science, FORTH Hellas
  145. Summary: Recent papers and technical reports from ICS,FORTH via anonymous FTP.
  146. Keywords: Technical Reports, ICS-FORTH, Greece
  147.  
  148.  
  149.                         TECHNICAL  REPORTS ANNOUNCEMENT
  150.                         Institute of Computer Science
  151.                                 FORTH, Greece
  152.  
  153.         This note serves to announce the availability of recent  papers
  154.         and technical reports from ICS, FORTH via anonymous FTP.
  155.  
  156.         Currently (or soon to become) available are several papers on 
  157.         parallel systems software, architecture, information systems and 
  158.         software angineering, networks, vision, etc. 
  159.  
  160.         Bibliographic citations and abstracts for the current papers appear
  161.         in the ABSTRACTS file of the ftp site.  
  162.         New papers will be added from time to time.  Each citation
  163.         includes (at the end of the abstact) the name of the compressed
  164.         postscript source file.  
  165.  
  166.         You can retrieve them via anonymous ftp from ariadne.ics.forth.gr.
  167.         i.e.:
  168.                 ftp ariadne.ics.forth.gr
  169.                 login 'anonymous'
  170.                 password your_email_address
  171.                 cd tech-reports
  172.  
  173.         For more information contact Maria Prevelianaki (mariab@ics.forth.gr).
  174. _____________________________________________________________________________
  175.  
  176.                       A brief profile of ICS-FORTH follows:
  177. _____________________________________________________________________________
  178.  
  179.  
  180.                             Institute of Computer Science
  181.                    Foundation for Research and Technology - Hellas
  182.                               Heraklion, Crete, Greece
  183.                               e-mail: user@ics.forth.gr
  184.  
  185.  
  186.         HISTORY
  187.         -------
  188.  
  189.         The Institute of Computer Science (ICS) is one of the first
  190.         three research institutes founded in 1983 as part of the
  191.         Research Center of Crete (RCC). ICS is now one of seven
  192.         research institutes constituting the Foundation for Research and
  193.         Technology - Hellas (FORTH), which is a center for research and
  194.         development monitored by the Ministry of Industry, Energy and
  195.         Technology
  196.         (General Secretariat of Research and Technology)
  197.         of the Greek Government.
  198.  
  199.         FORTH was formed in November 1987,
  200.         when the Research Center of Crete (founded in 1983)
  201.         was merged with Institutes
  202.         from Patras and Thessaloniki.
  203.         Today, FORTH is the second largest center in
  204.         Greece comprising seven Institutes :
  205.         Computer Science, Electronic Structure and
  206.         Lasers, Molecular Biology and Biotechnology, Applied and Computational
  207.         Mathematics, Chemical Process Engineering, Chemical Engineering \& High
  208.         Temperature Chemical Processes, and Mediterranean Studies. ICS-FORTH has
  209.         established itself as an internationally known
  210.         and highly competitive research
  211.         institute of computer science, with a modern infrastructure and a broad
  212.         range of R&D and educational activities.
  213.  
  214.  
  215.         ACTIVITIES
  216.         ----------
  217.  
  218.         Current R&D activities focus on the following areas:
  219.  
  220.         - Information Systems
  221.         - Software Engineering
  222.         - Parallel Architectures and Distributed Systems
  223.         - Computer Vision and Robotics
  224.         - Parallel Implementation of Integrated Vision Tasks
  225.         - Digital Communications
  226.         - Network Management
  227.         - Machine Learning
  228.         - Decision Support Systems
  229.         - Formal Methods in Concurrent Systems
  230.         - Computer Architectures and VLSI Design
  231.         - Computer Aided Design
  232.         - Medical Informatics
  233.         - Rehabilitation Tele-Informatics
  234.  
  235.         The names of contact persons for each of the above activities can be
  236.         obtained by sending e-mail to mariab@ics.forth.gr
  237.  
  238.  
  239.         ICS employs a full-time scientific and technical staff of 40, mostly
  240.         holding post-graduate degrees, and offers scholarships to over 120
  241.         graduate and undergraduate students, who participate in R&D activities.
  242.         Furthermore, ICS employs 12 faculty members of the Department of
  243.         Computer Science, University of Crete,
  244.         7 faculty members of the Technical
  245.         University of Crete, and several faculty members of other Universities
  246.         in Greece and abroad.
  247.  
  248.         ICS has been very active in European competitive R&D programmes and
  249.         currently participates in a number of projects in the ESPRIT, RACE, AIM,
  250.         and TIDE programmes, the Mediterranean Integrated Programme
  251.         for Informatics,
  252.         the NATO Science for Stability Programme, STRIDE, STAR, etc. External
  253.         funding accounts for approximately 65% of ICS's budget.
  254.  
  255.         Several well equipped laboratories have been created, where powerful
  256.         workstations are connected through local area networks with very large
  257.         file servers and are gatewayed to international networks. ICS is the
  258.         official Greek node for BITNET (EARN) and INTERNET (ITEnet, EUnet),
  259.         providing an international electronic networking service to the Greek
  260.         research community at large. ITEnet in particular, which is FORTH's
  261.         integrated network providing very high speed local area connectivity
  262.         (FDDI), is expanding rapidly and is expected to cover soon all major
  263.         Greek cities, providing fast access (64 kbps) to advanced services.
  264.  
  265.         ICS-FORTH represents Greece in the European Research Consortium for
  266.         Informatics and Mathematics (ERCIM), an organization dedicated to
  267.         the advancement of European research and development, in the areas
  268.         of information technology and applied mathematics. Ten European
  269.         countries are currently participating in ERCIM.
  270.  
  271.         ICS has developed cooperation with other universities, research centers,
  272.         and companies, as well as with Greek scientists living outside Greece,
  273.         thus establishing a continuous exchange of scientific
  274.         ideas and technology transfer.
  275.         In addition, ICS has adopted a strategy of promoting the
  276.         commercial exploitation of R&D results, by:
  277.  
  278.         - providing services (e.g. consulting, performing studies, etc);
  279.         - contracting with industrial partners for specific products;
  280.         - participating in startup companies and joint ventures.
  281.  
  282.  
  283.  
  284.  
  285.  
  286.  
  287. Approved: parallel@hubcap.clemson.edu
  288. Follow-up: comp.parallel
  289. Path: bounce-back
  290. Newsgroups: comp.parallel
  291. From: tanner@nas.nasa.gov (Leigh Ann Tanner)
  292. Subject: Intel Supercomputer User's Group Newsletter Available
  293. Organization: NAS/NASA-Ames Research Center
  294.  
  295. The first electronic edition of the Intel Supercomputer Users' Group
  296. newsletter is now available via ftp.  This issue includes:
  297.  
  298. * Late-breaking news: Oak Ridge National Laboratory accepts delivery of one
  299. of the largest Paragon(tm) supercomputers installed to date -- a 512- node
  300. configuration with peak performance of 38 GFLOPS. 
  301.  
  302. * An article from Users' Group chair Gary Lamont (Air Force Institute of
  303. Technology) on what's in store at the upcoming Supercomputer Users' Group
  304. Annual Conference, which takes place Oct. 3-6 in St. Louis. 
  305.  
  306. * A report from Marsha Jovanovic (San Diego Supercomputer Center) on the
  307. Paragon supercomputer and SDSC's recent summer institute. 
  308.  
  309. * A wrap-up from Thierry Priol (IRISA) on the Intel Supercomputer European
  310. Users' Group Annual Conference, held last June in Munich. 
  311.  
  312. * An in-depth interview with Oregon State University professor and HPC user
  313. advocate Dr. Cherri Pancake on Intel's new ParAide software development
  314. environment, which will be available this fall on the Paragon
  315. supercomputer.
  316.  
  317. * A write-up on this summer's SuperQuest Northwest, where winning teams of
  318. high school students had a crack at parallel programming on an iPSC(R)/860
  319. computer.
  320.  
  321. * An Intel News Roundup -- all the news that fits, including new Paragon
  322. supercomputer configurations, a C++ CRADA with Sandia National
  323. Laboratories, an alliance with Unisys to develop scalable computers based
  324. on the Pentium(tm) processor and more. 
  325.  
  326. The ISUG newsletter is available via anonymous ftp at export.ssd.intel.com 
  327. (137.102.222.129). The files are in plain ascii format, in the /pub/isug/ 
  328. directory. The first issue is called "isug_newsletter.09.93", subsequent 
  329. issues will be named to reflect the month and year of publication.
  330.  
  331. Happy reading!
  332.  
  333. Approved: parallel@hubcap.clemson.edu
  334. Follow-up: comp.parallel
  335. Path: bounce-back
  336. Newsgroups: comp.parallel
  337. From: blight@eeserv.ee.umanitoba.ca (David C Blight)
  338. Subject: Message-Passing simulators
  339. Sender: news@ccu.umanitoba.ca
  340. Nntp-Posting-Host: tequila.ee.umanitoba.ca
  341. Organization: Electrical Engineering, U of Manitoba, Winnipeg, Manitoba, Canada
  342. Date: Wed, 29 Sep 1993 21:33:33 GMT
  343.  
  344. I am curious if anyone knows of any freely available
  345. message-passing simulators.  I am not looking for anything
  346. specific as i am just curious about what is available if
  347. anything.
  348.  
  349. I don't know if there is any interest in this sort of
  350. software. I have done what i suspect most people do, wrote
  351. my own simulator for the algorithms I am interested in.
  352. I am hoping that maybe there is some simulators available
  353. that will do common routing algorithms (worm-hole and
  354. that sort of stuff)
  355.  
  356. Dave Blight
  357. blight@ee.umanitoba.ca
  358.  
  359.  
  360.  
  361. Approved: parallel@hubcap.clemson.edu
  362. Follow-up: comp.parallel
  363. Path: bounce-back
  364. Newsgroups: comp.parallel
  365. From: Crispin Cowan <crispin@csd.uwo.ca>
  366. Subject: Re: HERMES
  367. Organization: Department of Computer Science, University of Western Ontario, London
  368. Message-ID: <9309292223.AA07675@theodore.csd.uwo.ca>
  369.  
  370. In article <1993Sep29.123855.6202@hubcap.clemson.edu> you write:
  371. >Does anyone have any info., such as Technical Report refs., on the
  372. >Hermes language designed for programming large, concurrent and
  373. >distributed applications?
  374.  
  375. Sure:
  376.  
  377. @book
  378.   (
  379.     her91,
  380.     author = "Robert E. Strom and David F. Bacon and Arthur Goldberg and
  381.         Andy Lowry and Daniel Yellin and Shaula Alexander Yemini",
  382.     title = "{Hermes:  A Language for Distributed Computing}",
  383.     publisher = "Prentice Hall",
  384.     year = 1991
  385.   )
  386.  
  387. @article
  388.   (
  389.     str86,
  390.     author = "Robert E. Strom and Shaula Alexander Yemini",
  391.     title = "{Typestate:  A Programming Language Concept for Enhancing
  392.         Software Reliability}",
  393.     journal = "IEEE Transactions on Software Engineering",
  394.     volume = 12,
  395.     number = 1,
  396.     month = "January",
  397.     year = 1986,
  398.     pages = "157-171"
  399.   )
  400.  
  401. @inproceedings{
  402.     str90,
  403.     author="Robert E. Strom",
  404.     title="{Hermes:  An Integrated Language and System for Distributed
  405.         Programming}",
  406.     booktitle="1990 Workshop on Experimental Distributed Systems",
  407.     location = "Huntsville, AL",
  408.     year=1990,
  409.     month="April"
  410. }
  411.  
  412. @inproceedings{
  413.     bac90h,
  414.     author="David F. Bacon and Robert E. Strom",
  415.     title="{A PORTABLE RUN_TIME System for the Hermes Distributed
  416.         Programming Language}",
  417.     booktitle="Summer 1990 USENIX Conference",
  418.     location = "Anaheim, CA"
  419.     year=1990,
  420.     month="June"
  421. }
  422.  
  423. Crispin
  424. -----
  425. Crispin Cowan, CS grad student, University of Western Ontario
  426. Phyz-mail:  Middlesex College, MC28-C, London, Ontario, N6A 5B7
  427. E-mail:     crispin@csd.uwo.ca          Voice:  519-661-3342
  428. "If you see a skier, turn.  Trees too."  Burton rendition of the
  429. Skier's^H^H^H^H^H^H^H Snowboarder's Responsibility Code
  430.  
  431. Approved: parallel@hubcap.clemson.edu
  432. Follow-up: comp.parallel
  433. Path: bounce-back
  434. Newsgroups: comp.parallel
  435. From: achilles@ira.uka.de (Alf-Christian Achilles)
  436. Subject: Re: Papers for parallel data compression wanted
  437. Organization: Universitaet Karlsruhe, Karlsruhe, Deutschland.
  438. References: <1993Sep29.123748.5659@hubcap.clemson.edu>
  439. Nntp-Posting-Host: i90fs2.ira.uka.de
  440. In-Reply-To: cnb@ipp-garching.mpg.de's message of Wed, 29 Sep 1993 12:37:48 GMT
  441. Sender: newsadm@ira.uka.de
  442.  
  443.  
  444. >>>>> In article <1993Sep29.123748.5659@hubcap.clemson.edu>, cnb@ipp-garching.mpg.de (Christian Brosig INF.) writes:
  445.  
  446. > I'm looking for papers or books on parallel data compression.
  447. > Can anyone help me?
  448.  
  449. I hope that I can: These are some references I found in my biblio:
  450. No guarantee for correctness, quality or availability.
  451.  
  452. - Alf
  453.  
  454. <<<<<<--CUT HERE----------------------
  455.  
  456. @InProceedings{Bassiouni88,
  457.   author =       "M. A. Bassiouni and N. Ranganathan and Amar
  458.                  Mukherjee",
  459.   title =        "A Scheme for Data Compression in Supercomputers",
  460.   booktitle =    "Proceedings Supercomputing'88",
  461.   pages =        "272--278",
  462.   publisher =    "IEEE and ACM SIGARCH",
  463.   address =      "Orlando, FL",
  464.   month =        nov,
  465.   year =         "1988",
  466.   keywords =     "mass storage, MSS, in hardware,",
  467.   abstract =     "Does not deal with parallel processing directly, but
  468.                  it does help supercomputers.",
  469.   note =         "F. Central FL.",
  470. }
  471.  
  472. @Article{Gajski80,
  473.   author =       "Daniel D. Gajski",
  474.   title =        "Parallel Compressors",
  475.   journal =      "IEEE Transactions on Computers",
  476.   volume =       "C-29",
  477.   number =       "5",
  478.   pages =        "393--398",
  479.   month =        may,
  480.   year =         "1980",
  481.   keywords =     "Associative processors, carry-shower counters,
  482.                  content-addressable memory, elementary logic functions,
  483.                  fast multipliers, high-speed arithmetic,
  484.                  multiple-operand addition, parallel counters
  485.                  Correspondence",
  486. }
  487.  
  488. @InProceedings{Newman92,
  489.   author =       "Daniel M. Newman and Dennis L. Goeckel and Richard D.
  490.                  Crawford and Seth Abraham",
  491.   title =        "Parallel Holographic Image Calculation and
  492.                  Compression",
  493.   booktitle =    "Proc. Frontiers '92: Fourth Symp. on Massively
  494.                  Parallel Computation",
  495.   pages =        "557--559",
  496.   publisher =    "IEEE",
  497.   address =      "McLean, VA",
  498.   month =        oct,
  499.   year =         "1992",
  500.   keywords =     "poster session,",
  501. }
  502.  
  503. @InProceedings{Ntafos87,
  504.   author =       "Simeon Ntafos and Eliezer Dekel and Shietung Peng",
  505.   title =        "Compression Trees and Their Applications",
  506.   booktitle =    "Proceedings of the 1987 International Conference on
  507.                  Parallel Processing",
  508.   pages =        "132--139",
  509.   publisher =    "Penn State",
  510.   address =      "University Park, Penn.",
  511.   month =        aug,
  512.   year =         "1987",
  513.   keywords =     "Data Structures",
  514. }
  515.  
  516. @InProceedings{Reif88,
  517.   author =       "John H. Reif and James A. Storer",
  518.   title =        "Real-Time Dynamic Compression of Video on a
  519.                  Grid-Connected Parallel Computer",
  520.   booktitle =    "Proceeding Supercomputing Projects, Applications and
  521.                  Artificial Intelligence",
  522.   volume =       "1",
  523.   pages =        "453--462",
  524.   publisher =    "Third International Conference on Supercomputing (ICS
  525.                  '88)",
  526.   address =      "St. Petersberg, FL",
  527.   year =         "1988",
  528. }
  529.  
  530. @Article{Sijstermans91,
  531.   author =       "Frans Sijstermans and Jan van der Meer",
  532.   title =        "{CD}-{I} Full Motion Video Encoding on a Parallel
  533.                  Computer",
  534.   journal =      "Communications of the ACM",
  535.   volume =       "34",
  536.   number =       "4",
  537.   pages =        "81--91",
  538.   month =        apr,
  539.   year =         "1991",
  540.   keywords =     "CR Categories: C.1.2 [Processor Architectures]:
  541.                  multiprocessors, parallel processors; D.1.3
  542.                  [Programming Techniques]: concurrent programming, I.4.2
  543.                  [Image Processing]: Compression (coding) - approximate
  544.                  methods General Terms: Design, Performance, CD-I,
  545.                  interactive video, POOMA",
  546. }
  547.  
  548. @InProceedings{Thomborson91,
  549.   author =       "Clark D. Thomborson and Belle W. Y. Wei",
  550.   title =        "Systolic Implementations of a Move-to-Front Text
  551.                  Compressor",
  552.   booktitle =    "Symposium on Parallel Algorithms and Architecture,
  553.                  Computer Architectures News",
  554.   pages =        "53--60",
  555.   month =        mar,
  556.   year =         "1991",
  557.   keywords =     "special issue,",
  558.   note =         "Published as Symposium on Parallel Algorithms and
  559.                  Architecture, Computer Architectures News, volume 19,
  560.                  number 1",
  561. }
  562.  
  563. @InProceedings{Tinker??,
  564.   author =       "Michael Tinker",
  565.   title =        "The Implementation of Parallel Image Compression
  566.                  Techniques",
  567.   booktitle =    "Proceeding Supercomputing '88: Technology Assessment,
  568.                  Industrial Supercomputer Outlooks, European
  569.                  Supercomputing Accomplishments, and Performance &
  570.                  Computations",
  571.   volume =       "2",
  572.   pages =        "209--215",
  573.   publisher =    "Third International Conference on Supercomputing (ICS
  574.                  '88)",
  575.   address =      "St. Petersberg, FL",
  576. }
  577.  
  578. @InProceedings{AgoSto92,
  579.   author =       "De Agostino and Storer",
  580.   title =        "Parallel Algorithms for Optimal Compression Using
  581.                  Dictionaries with the Prefix Property",
  582.   booktitle =    "Data Compression Conference",
  583.   publisher =    "IEEE Computer Society TCC",
  584.   year =         "1992",
  585. }
  586.  
  587. @InProceedings{CarSto92,
  588.   author =       "Carpentieri and Storer",
  589.   title =        "A Split-Merge Parallel Block-Matching Algorithm for
  590.                  Video Displacement Estimation",
  591.   booktitle =    "Data Compression Conference",
  592.   publisher =    "IEEE Computer Society TCC",
  593.   year =         "1992",
  594. }
  595.  
  596. @InProceedings{HowVit92,
  597.   author =       "Howard and Vitter",
  598.   title =        "Parallel Lossless Image Compression Using Huffman and
  599.                  Arithmetic Coding",
  600.   booktitle =    "Data Compression Conference",
  601.   publisher =    "IEEE Computer Society TCC",
  602.   year =         "1992",
  603. }
  604.  
  605. @InProceedings{StoRei90,
  606.   author =       "Storer and Reif",
  607.   title =        "A Parallel Architecture for High Speed Data
  608.                  Compression",
  609.   booktitle =    "Frontiers of Massively Parallel Scientific
  610.                  Computation",
  611.   publisher =    "National Aeronautics and Space Administration (NASA),
  612.                  IEEE Computer Society Press",
  613.   year =         "1990",
  614. }
  615.  
  616. @Article{StoRei91,
  617.   author =       "Storer and Reif",
  618.   title =        "A Parallel Architecture for High-Speed Data
  619.                  Compression",
  620.   journal =      "Journal of Parallel and Distributed Computing",
  621.   volume =       "13",
  622.   year =         "1991",
  623. }
  624.  
  625. @TechReport{BadJaJChe92,
  626.   author =       "Bader and Ja'Ja' and Chellappa",
  627.   title =        "Scalable Data Parallel Algorithms for Texture
  628.                  Synthesis and Compression Using Gibbs Random Fields",
  629.   year =         "1992",
  630. }
  631.  
  632. @TechReport{StaHir91,
  633.   author =       "Stauffer and Hirschberg",
  634.   title =        "Parallel Data Compression",
  635.   year =         "1991",
  636. }
  637.  
  638. @InProceedings{ThoWei89,
  639.   author =       "Thomborson and Wei",
  640.   title =        "Systolic Implementations of a Move-to-Front Text
  641.                  Compressor",
  642.   booktitle =    "Annual ACM Symposium on Parallel Algorithms and
  643.                  Architectures",
  644.   year =         "1989",
  645. }
  646.  
  647. @InProceedings{ZitoWolf90,
  648.   author =       "Zito-Wolf",
  649.   title =        "A Broadcast/Reduce Architecture for High-Speed Data
  650.                  Compression",
  651.   booktitle =    "2nd IEEE Symposium on Parallel and Distributed
  652.                  Processing",
  653.   publisher =    "ACM Special Interest Group on Computer Architecture
  654.                  (SIGARCH), and IEEE Computer Society",
  655.   year =         "1990",
  656. }
  657.  
  658. @InProceedings{HenRan90,
  659.   author =       "Henriques and Ranganathan",
  660.   title =        "A Parallel Architecture for Data Compression",
  661.   booktitle =    "2nd IEEE Symposium on Parallel and Distributed
  662.                  Processing",
  663.   publisher =    "ACM Special Interest Group on Computer Architecture
  664.                  (SIGARCH), and IEEE Computer Society",
  665.   year =         "1990",
  666. }
  667.  
  668. @Article{Storer85,
  669.   author =       "M. E. Gonzalez-Smith and J. A. Storer",
  670.   title =        "Parallel Algorithms for Data Compression",
  671.   year =         "1985",
  672.   journal =      "J. ACM",
  673.   volume =       "32",
  674.   institution =  "Brandeis U",
  675.   pages =        "344--373",
  676.   keywords =     "IMAGE INFORMATION, STATISTICS",
  677. }
  678.  
  679. @Article{tinker89a,
  680.   author =       "Michael Tinker",
  681.   title =        "{DVI} Parallel Image Compression",
  682.   pages =        "844--851",
  683.   journal =      "Communications of the ACM",
  684.   volume =       "32",
  685.   number =       "7",
  686.   year =         "1989",
  687.   month =        jul,
  688.   keywords =     "image compression",
  689.   annote =       "",
  690. }
  691.  
  692.  
  693.  
  694. Approved: parallel@hubcap.clemson.edu
  695. Follow-up: comp.parallel
  696. Path: bounce-back
  697. Newsgroups: comp.parallel
  698. From: stubbi@gmd.de (Stephan Springstubbe, Z1HR 2337)
  699. Subject: Re: Supremum design?
  700. Summary: Suprenum (SUPerREchner fuer NUMerische Anwendungen)
  701. Keywords: Suprenum, Cluster
  702. Organization: GMD, Sankt Augustin, Germany.
  703. References: <1993Sep29.123833.6031@hubcap.clemson.edu>
  704.  
  705. Hi Ralf!
  706.  
  707. The Suprenum is an MIMD/SIMD system. You can see a 128-processor system in GMD (Gesellschaft fuer Mathematik und Datenverarbeitung, Sankt Augustin).
  708.  
  709. Each Suprenum computing node comprises a 
  710.  
  711. + vector-processing unit (20 MFlop/s with chaining)
  712. + processor for program control (MC 68020)
  713. + communication processor 
  714. + 8 MB memory
  715.  
  716. 16 such computing nodes are interconnected via a high-speed bus (320 MB/s) to form a cluster.
  717.  
  718. In addition, each cluster is equipped with a 
  719.  
  720. + disk-controller node (2GB hard-disk) 
  721. + dedicated node for monitoring and diagnosis
  722. + 2 communication nodes for linking up with the upper interconnection system
  723.  
  724. The interconnection system is provided by the Suprenum bus system, which connects
  725. a 'grid' of clusters, toroidally in each direction, by a double serial bus (125 MB/s). 
  726.  
  727. Our greatest configuration comprises 16 clusters interconnected to form a 4x4 matrix, representing 256 computing nodes. The cluster system is accessible by the user via a front-end computer.
  728.  
  729. You can find more informations in:
  730.  
  731. U. Trottenberg, K. Solchenbach:
  732. Parallele Algorithmen und ihre Abbildung auf parallele Rechnerarchitekturen.
  733. it 30(2), 1988
  734.  
  735. U. Trottenberg:
  736. The Suprenum Project: Idea and Current State
  737. Suprenum Report 8
  738. Suprenum GmbH, Bonn, 1988
  739.  
  740. U. Trottenberg (ed.):
  741. Proceedings of the 2nd International Suprenum Colloquium,
  742. "Supercomputing based on parallel computer architectures".
  743. Parallel Computing, Vol. 7, 3, 1988
  744.  
  745. H.P. Zima, H.J. Bast, M. Gerndt:
  746. SUPERB: A tool for semi-automatic MIMD/SIMD parallelization.
  747. Parallel Computing, 6, 1988
  748.  
  749. E. Kehl, K.-D. Oertel, K. Solchenbach, R. Vogelsang:
  750. Application benchmarks on Suprenum.
  751. Supercomputer, March 1991
  752.  
  753. C.-A. Thole:
  754. Programmieren von Rechnern mit verteiltem Speicher.
  755. PIK 13, 1990
  756. < This is a short introduction in the Suprenum architecture
  757.   and Superb >
  758.  
  759.  
  760.  
  761. Greetings, Stephan
  762.  
  763. Stephan Springstubbe
  764. German National Research Center For Computer Science (GMD)
  765. Department of Supercomputing
  766. Schloss Birlinghoven
  767. 53757 Sankt Augustin
  768. Germany
  769.  
  770.  
  771. Approved: parallel@hubcap.clemson.edu
  772. Follow-up: comp.parallel
  773. Path: bounce-back
  774. Newsgroups: comp.parallel
  775. From: Alba.Balaniuk@imag.fr (Alba Balaniuk)
  776. Subject: Simulator of a processor network needed
  777. Organization: IMAG Institute, University of Grenoble, France
  778.  
  779. Hi,
  780.  
  781.     I am interested in shared virtual memory (SVM) mechanisms
  782. for parallel loosely coupled architectures.
  783.  
  784.     I have already designed a SVM server and now I want to implement
  785. and validate it. The problem is that I do not have an adequate
  786. multiprocessor or processor network to use on the implelmentation.
  787.  
  788.     So, does anybody know about a network or a multiprocessor simulator
  789. which I can use for this purpose ? If so, is it a public domain software ?
  790.  
  791.     You can send the answers to my email: Alba.Balaniuk@imag.fr
  792.  
  793.     Thanks for all the information.
  794.  
  795.  
  796.                 Alba
  797.  
  798.  
  799. -------------------------------------------
  800. Alba C. M. M. Balaniuk
  801. Laboratoire de Genie Informatique (LGI)
  802. IMAG / INPG
  803. Grenoble, France
  804. ------------------------------------------- 
  805.  
  806.  
  807. Approved: parallel@hubcap.clemson.edu
  808. Follow-up: comp.parallel
  809. Path: bounce-back
  810. Newsgroups: comp.parallel
  811. From: stubbi@gmd.de (Stephan Springstubbe, Z1HR 2337)
  812. Subject: Re: MPI(message passing interface)standards
  813. Summary: MPI-FTP address
  814. Organization: GMD, Sankt Augustin, Germany.
  815. References: <1993Sep29.124012.6790@hubcap.clemson.edu>
  816. Date: Thu, 30 Sep 1993 14:38:08 GMT
  817.  
  818. Hi Yung-Kang!
  819.  
  820. I am not involved in this project (like Rolf Hempel), but
  821. informations can be ftp-ed under:
  822.  
  823.    info.mcs.anl.gov 
  824.  
  825. in directory:
  826.  
  827.    /pub/mpi
  828.  
  829. Greetings, Stephan
  830.  
  831. Stephan Springstubbe
  832. Department of Supercomputing
  833. Schloss Birlinghoven
  834. 53757 Sankt Augustin
  835.  
  836.  
  837. Approved: parallel@hubcap.clemson.edu
  838. Follow-up: comp.parallel
  839. Path: bounce-back
  840. Newsgroups: comp.parallel,comp.parallel.pvm
  841. From: "Przemyslaw Stpiczynski" <PRZEM@golem.umcs.lublin.pl>
  842. Subject:      PVM 3.0 under SCO UNIX
  843.  
  844. Hi,
  845.  
  846. I am trying to install PVM 3.0 under SCO Unix System V/386 Release 
  847. 3.2, but I have still some problems. Especially I do not know how to 
  848. update the generic Makefile body for SCO 386.  I have tried to 
  849. update the generic makefile but it doesn't work. So I would be very 
  850. grateful for the information how to do it.
  851. Please, send any suggestions directly to me.
  852.  
  853. Best regards
  854.  
  855. Przemek
  856. przem@golem.umcs.lublin.pl
  857.  
  858. Approved: parallel@hubcap.clemson.edu
  859. Follow-up: comp.parallel
  860. Path: bounce-back
  861. Newsgroups: comp.parallel
  862. From: lusk@mcs.anl.gov (Rusty Lusk)
  863. Subject: Re: MPI(message passing interface)standards
  864. Reply-To: lusk@mcs.anl.gov (Rusty Lusk)
  865. Organization: Argonne National Laboratory, Chicago, Illinois
  866. References: <1993Sep29.124012.6790@hubcap.clemson.edu> <1993Sep30.165333.15705@hubcap.clemson.edu>
  867.  
  868. In article <1993Sep30.165333.15705@hubcap.clemson.edu>, stubbi@gmd.de (Stephan Springstubbe, Z1HR 2337) writes:
  869. >
  870. >I am not involved in this project (like Rolf Hempel), but
  871. >informations can be ftp-ed under:
  872. >   info.mcs.anl.gov 
  873. >in directory:
  874. >   /pub/mpi
  875. >Greetings, Stephan
  876.  
  877. This is not correct.  The right place for MPI information is netlib.  Please
  878. see Ian Glendinning's post above.
  879.  
  880. Rusty Lusk
  881.  
  882. Approved: parallel@hubcap.clemson.edu
  883. Follow-up: comp.parallel
  884. Path: bounce-back
  885. Newsgroups: comp.parallel
  886. Date: Thu, 30 Sep 93 14:51:15 CDT
  887. From: degroot@s905.dseg.ti.com (Doug DeGroot)
  888. Subject: PARLE '94 - Call for Papers
  889.  
  890.                            CALL FOR PAPERS
  891.                           -----------------
  892.  
  893.  
  894.                               PARLE'94
  895.              (PARALLEL ARCHITECTURES AND LANGUAGES EUROPE)
  896.  
  897.         June 13-17, 1994-- Intercontinental Hotel, Athens-Greece
  898.  
  899. Parallel processing is a discipline of strategic significance within the 
  900. Information Technology sector. The PARLE conferences have been established
  901. as major events of world wide reputation, where Academia and Industry meet
  902. to exchange ideas and discuss key issues of common interest. PARLE'94 will
  903. build upon the successes of the previous conferences and will cover the full
  904. spectrum of parallel processing, ranging from theory to design and applications
  905. of Parallel Computer Systems.
  906.  
  907. PARLE'94 will include tutorials covering advanced parallel processing techniques
  908. and an exhibition featuring many of the leading international suppliers of 
  909. parallel machines and software.
  910.  
  911. CONFERENCE AREAS.
  912. ------------------------------------------------------------------------------
  913. Parallel Machines and Systems.                Design of Parallel Programs
  914.  __ shared, clustered and distributed          -- parallel algorithms.
  915.     machines.                                  -- complexity analysis.    
  916.  -- massively parallel machines.               -- specification and verification
  917.  -- neural networks.                           -- formal program development
  918.  -- evaluation, simulation and benchmarking.      methodologies.
  919.                                                
  920. Parallel Operating Systems.                   Parallel Programming Languages
  921.  -- scheduling.                                -- language constructs.
  922.  -- load balancing.                            -- semantics.
  923.  -- memory management.                         -- programming environments.
  924.  -- run time systems.                          -- implementation issues.
  925.  
  926. Design of Parallel Architectures              Applications of Parallel Systems
  927.  -- multiprocessor design issues.              -- decision support.
  928.  -- interconnection networks.                  -- databases.
  929.  -- cache organization.                        -- industrial and business 
  930.  -- specification and verification.               applications.
  931.  -- special purpose architectures.             -- scientific computing.
  932.  
  933.  
  934. SUBMISSION OF PAPERS
  935. --------------------------------------------------------------------------------
  936. Authors should send five paper copies of a full draft in English and not 
  937. exceeding 6000 words to the official conference mailing address (see below)
  938. before 19 November 1993.
  939.  
  940. A cover page should contain the author's full name, address, telephone number,
  941. FAX number, e-mail address and a 100 word abstract together with a few keywords
  942. (taken from the list of conference topics above). To allow submissions to be
  943. refereed blind, the author's identity should appear only on the cover page.
  944.  
  945. Authors of high quality papers that cannot be included in the main conference
  946. session but deserve presentation will be invited to participate in a poster
  947. session to be held during conference. An A-4 page summary of such papers will
  948. be published in the proceedings. Authors must include whether or not they
  949. would accept such an invitation on the cover sheet. Authors will be notified
  950. of acceptance by 11 February 1994. Camera ready copies of accepted papers
  951. will be required by 18 March 1994.
  952.  
  953. =========================================================================
  954. A best paper award will be presented at the conference. Also a best
  955. paper award will be presented for contributors of age under 30, provided
  956. they are the principal authors of the paper. 
  957. ==========================================================================
  958.  
  959. OFFICIAL CONFERENCE MAILING ADDRESS
  960. --------------------------------------------------------------------------
  961. PARLE'94 /CTI
  962. 3, Kolokotroni str.
  963. 262 21 Patras,
  964. Greece.
  965.  
  966. Tel. (+3061) 220 112
  967. FAX. (+3061) 222 086
  968. e-mail. parle@cti.gr
  969.  
  970.  
  971. Approved: parallel@hubcap.clemson.edu
  972. Follow-up: comp.parallel
  973. Path: bounce-back
  974. Newsgroups: comp.parallel
  975. From: kwb@sturgeon.cs.washington.edu (Kevin W. Bolding)
  976. Subject: Re: Message-Passing simulators
  977. Organization: University of Washington Computer Science
  978. References:  <1993Sep30.165228.15292@hubcap.clemson.edu>
  979.  
  980. In article <1993Sep30.165228.15292@hubcap.clemson.edu>, blight@eeserv.ee.umanitoba.ca (David C Blight) writes:
  981. |> I am curious if anyone knows of any freely available
  982. |> message-passing simulators.  I am not looking for anything
  983. |> specific as i am just curious about what is available if
  984. |> anything.
  985.  
  986. The Chaos Router simulator is available from the University of
  987. Washington.  This is a flit-based simulator which can simulate
  988. dimension-order oblivious routing (packet or wormhole), chaotic
  989. adaptive routing, and any other algorithm you'd like to program.
  990. Essentially the entire family of k-ary d-cubes (multi-dimensional
  991. meshes and tori and hypercubes) are supported.  Graphic 
  992. visualization tools are included as well.
  993.  
  994. If you are interested, let us know.
  995.  
  996. Kevin Bolding
  997. Dept. of Computer Science and Engineering
  998. University of Washington
  999. kwb@cs.washington.edu
  1000.  
  1001.  
  1002. Approved: parallel@hubcap.clemson.edu
  1003. Follow-up: comp.parallel
  1004. Path: bounce-back
  1005. Newsgroups: comp.parallel
  1006. From: jon@cs.uow.edu.au (Jonathon Gray)
  1007. Newsgroups: comp.parallel
  1008. Subject: Australian KSR distributer
  1009. Organization: University of Wollongong, NSW, Australia.
  1010.  
  1011. Can anyone give me the name, number, and address
  1012. of the Australian KSR agent.
  1013.  
  1014. Jon Gray
  1015. jon@cs.uow.edu.au
  1016.  
  1017.  
  1018. Approved: parallel@hubcap.clemson.edu
  1019. Follow-up: comp.parallel
  1020. Path: bounce-back
  1021. From: frank@per.geomechanics.csiro.au (Frank Horowitz)
  1022. Newsgroups: comp.parallel,sci.math.num-analysis
  1023. Subject: F90 LAPACK? (MasPar SVD &/or BLAS)
  1024. Date: 1 Oct 1993 04:06:51 GMT
  1025. Organization: CSIRO Exploration & Mining
  1026.  
  1027. Folks,
  1028.  
  1029.     I'm trying to get an SVD to run on a 1k MP1 (callable from mpl, if anyone
  1030. cares).  I'm currently trying to bring up LAPACK's SGESVD.  I've found the
  1031. (Institutt for Informatikk, University of Bergen, Norway) para//ab's
  1032. implementation of BLAS for the maspar (send index from maspar; via
  1033. netlib@nac.no). 
  1034.  
  1035.     The problem is, the BLAS implementation requires call parameters in
  1036. FORTRAN90 array syntax (where appropriate) and ignores the f77 style array
  1037. dimensions and shape parameters in the call lists.  Netlib returns about 40
  1038. related routines for SGESVD, and I'm shuddering at trying to get the
  1039. conversions right by hand...
  1040.  
  1041.     Has any kind soul translated the LAPACK call lists into F90 array syntax? 
  1042. (Of course, I'll be satisfied with SGESVD and friends for the moment :-)
  1043.  
  1044.     Alternatively, does anyone have a MasPar implementation of an SVD via
  1045. another route?
  1046.  
  1047.     Thanks (as "they" say) in advance!
  1048.  
  1049.         Frank
  1050.  
  1051. __________________________________________________________________
  1052. Frank Horowitz;                    frank@per.geomechanics.csiro.au
  1053. CSIRO-Exploration & Mining, POBox 437, Nedlands, WA 6009 AUSTRALIA
  1054. (09)389-8421 (Int'l +61 9 389 8421), FAX (+61 9 389 1906)
  1055.  
  1056. Approved: parallel@hubcap.clemson.edu
  1057. Follow-up: comp.parallel
  1058. Path: bounce-back
  1059. Newsgroups: aus.parallel,comp.parallel,comp.parallel.pvm
  1060. From: junaid@nella32.cc.monash.edu.au (Mr A. Walker)
  1061. Subject: Simulating multi-processor networks
  1062. Organization: Monash University
  1063.  
  1064.     Hi, I'm trying to simulate the communication performance of
  1065. several multi-processor architectures using distributed memory, message
  1066. passing.
  1067.     Does anyone know any programs that would simulate an fixed
  1068. network under varying node message distributions (ie uniform,
  1069. sphere-of-locality, decaying exponential etc) and give communication
  1070. load measures at each node (eg number of messages passing through each
  1071. node link, visit ratios etc).
  1072.     Alternatively, a general simulation programming library or
  1073. simulation program  would be useful.
  1074.  
  1075.     Thanks,
  1076.     Junaid.
  1077.  
  1078. Approved: parallel@hubcap.clemson.edu
  1079. Follow-up: comp.parallel
  1080. Path: bounce-back
  1081. Newsgroups: comp.parallel
  1082. Newsgroups: comp.parallel
  1083. Path: cs.cornell.edu!prakas
  1084. From: Indu Prakas Kodukula <prakas@cs.cornell.EDU>
  1085. Subject: HPF/F90 Benchmarks
  1086. Sender: USENET news user <news@cs.cornell.EDU>
  1087. Nntp-Posting-Host: hel.cs.cornell.edu
  1088. Organization: Cornell University, CS Dept., Ithaca, NY
  1089. Date: Thu, 30 Sep 1993 19:24:33 GMT
  1090. Apparently-To: comp-parallel@eddie.mit.edu
  1091.  
  1092. Hi,
  1093.  
  1094.     Does anyone have information about F90/HPF benchmark suites
  1095. that have been developed and where they are availbale?
  1096.  
  1097. Thanks in advance.
  1098. -Indu
  1099.  
  1100. -- 
  1101. Indu Prakas Kodukula
  1102. e-mail: prakas@cs.cornell.edu
  1103. Addr 710 ETC
  1104. Phone: (607)254-8833
  1105. Approved: parallel@hubcap.clemson.edu
  1106. Follow-up: comp.parallel
  1107. Path: bounce-back
  1108. Newsgroups: comp.parallel
  1109. From: dbader@eng.umd.edu (David Bader)
  1110. Subject: Re: Papers for parallel data compression wanted
  1111. Organization: Professional Student, University of Maryland, College Park
  1112. References: <1993Sep29.123748.5659@hubcap.clemson.edu> <1993Sep30.165341.15734@hubcap.clemson.edu>
  1113.  
  1114. In article <1993Sep30.165341.15734@hubcap.clemson.edu> achilles@ira.uka.de (Alf-Christian Achilles) writes:
  1115. >@TechReport{BadJaJChe92,
  1116. >  author =       "Bader and Ja'Ja' and Chellappa",
  1117. >  title =        "Scalable Data Parallel Algorithms for Texture
  1118. >                 Synthesis and Compression Using Gibbs Random Fields",
  1119. >  year =         "1992",
  1120.  
  1121. This paper has been substantially rewritten, and is available through
  1122. UMIACS at the University of Maryland, College Park (kellogg@cs.umd.edu
  1123. = Betty Kellogg, the Technical Report Librarian).  The new report has
  1124. been submitted to a conference and journal for possible publication.
  1125. Note that this work has been implemented on both a CM-2 and a CM-5,
  1126. and gives (in my opinion, and from the research that I have seen) the
  1127. first "real" data parallel algorithm complexity analysis for the newer
  1128. massively parallel machines like the CM-5. Here is the abstract:
  1129.  
  1130.    This paper introduces scalable data parallel algorithms for image
  1131. processing.  Focusing on Gibbs and Markov Random Field model
  1132. representation for textures, we present parallel algorithms for
  1133. texture synthesis, compression, and maximum likelihood parameter
  1134. estimation, currently implemented on Thinking Machines CM-2 and CM-5.
  1135. Use of fine-grained, data parallel processing techniques yields
  1136. real-time algorithms for texture synthesis and compression that are
  1137. substantially faster than the previously known sequential
  1138. implementations.  Although current implementations are on Connection
  1139. Machines, the methodology presented here enables machine independent
  1140. scalable algorithms for a number of problems in image processing and
  1141. analysis.
  1142.  
  1143. -david
  1144.  
  1145. David A. Bader 
  1146. Electrical Engineering Department
  1147. A.V. Williams Building - Room 3142-A
  1148. University of Maryland
  1149. College Park, MD 20742
  1150. 301-405-6755   
  1151.  
  1152. Internet: dbader@eng.umd.edu
  1153.  
  1154.  
  1155. Approved: parallel@hubcap.clemson.edu
  1156. Follow-up: comp.parallel
  1157. Path: bounce-back
  1158. Newsgroups: comp.theory,comp.parallel
  1159. From: eisenbar@Informatik.TU-Muenchen.DE (Eisenbarth)
  1160. Subject: Graph Partitioning
  1161. Keywords: Graph Partitioning
  1162. Organization: Technische Universitaet Muenchen, Germany
  1163.  
  1164. Hi,
  1165.  
  1166. this time I'm interested in your hints, suggestions etc. 
  1167. concerning graph partitioning. The graphs in question are
  1168. either
  1169.  
  1170.  * bipartite graphs (processors and memory cells as nodes)
  1171.  
  1172. or
  1173.  
  1174.  * representing multiprocessor networks (processors as nodes).
  1175.  
  1176. Please send your responses to
  1177.  
  1178. eisenbar@informatik.tu-muenchen.de.
  1179.  
  1180.  
  1181. Thanks in advance,
  1182.  
  1183.                    Thomas
  1184.  
  1185. -- 
  1186. Thomas Eisenbarth   eisenbar@informatik.tu-muenchen.de
  1187.  
  1188. Approved: parallel@hubcap.clemson.edu
  1189. Follow-up: comp.parallel
  1190. Path: bounce-back
  1191. Newsgroups: comp.parallel
  1192. From: UKELLER@CIPVAX.BIOLAN.UNI-KOELN.DE (Udo Keller)
  1193. Subject: PALLAS announces PM6 for KSR1
  1194. Organization: BIOLAN - COLOGNE UNIVERSITY (FRG)
  1195.  
  1196. Bruehl, Germany, October 1, 1993
  1197.  
  1198. PARMACS V6.0 for KSR1 is available now.
  1199.  
  1200. The port of PARMACS V6.0 to the Kendall Square Research KSR1 has been
  1201. accepted by KSR.
  1202. PARMACS is a European standard message passing interface and plays
  1203. a central role in major benchmark activities.
  1204.  
  1205. Information, performance figures and more are obtainable from:
  1206.              info@pallas-gmbh.de
  1207.  
  1208. Approved: parallel@hubcap.clemson.edu
  1209. Follow-up: comp.parallel
  1210. Path: bounce-back
  1211. Newsgroups: comp.parallel
  1212. From: gadre@parcom.ernet.in
  1213. Subject: Parallel chemistry code
  1214. Organization: SUNY/Buffalo Computer Science
  1215.  
  1216. This is something I received from Center for Development of Advanced
  1217. Computing , Pune, India about their efforts in parallel programming in
  1218. applications for chemistry. Since they do not have a news server there,
  1219. I am posting it on their behalf. ( Further correspondence should be
  1220. made to gadre@parcom.ernet.in, not me. )
  1221.  
  1222. -Milind A. Bhandarkar.
  1223. ------------------------------------------------------------
  1224.  
  1225.                                                        September 30,1993
  1226. Dear Dr. Harrison :
  1227.  
  1228.           I have received your e-mail inquiring about our efforts in 
  1229. using parallel computers in the field of Chemistry.  I am happy to 
  1230. inform you about the sequential and parallel code development by my 
  1231. group in this area.
  1232.  
  1233.           My group at the Department of Chemistry, University of Poona 
  1234. has been working on parallel solutions in Quantum Chemical problems 
  1235. for last four years.  During this course, we have developed an ab 
  1236. initio Molecular Orbital Package called INDMOL.  The purpose of this 
  1237. package is to generate the wavefunction for a given molecular system, 
  1238. evaluation of various molecular properties and its visualization.  The 
  1239. package consists of three modules : one for each of the above 
  1240. functions.  The first module INDSCF generates the wave function which 
  1241. is fed to the second module INDPROP where we can generate molecular 
  1242. properties like molecular electrostatic potential (MESP), molecular 
  1243. electron density (MED), electron momentum density (EMD), topography of 
  1244. MESP, MED and EMD, various moments, population analysis etc.  The point 
  1245. dependent molecular properties can be visualized with the help of the 
  1246. third module INDVISUAL.
  1247.  
  1248.           Of the above three modules the first two viz. INDSCF and 
  1249. INDPROP are parallelized on distributed memory MIMD machine PARAM 
  1250. developed by C-DAC on their software platform PARAS.  The whole 
  1251. parallel effort has resulted into ~30,000 line FORTRAN code.  These 
  1252. programs have been tested on 64- and 128- node versions of PARAM.  The 
  1253. parallel algorithm is such that there is no significant performance 
  1254. degradation even in presence of any inhomogenity in the hardware.  The 
  1255. claim has been tested on PARAM with the use of processors with 
  1256. different ratings.  Also a distinct advantage of this parallelization 
  1257. effort is that whole of the code is written indigeneouly, which make it 
  1258. possible to port on any parallel machine of our choice.
  1259.  
  1260.           Sequential version of the above programs are also available 
  1261. on DOS as well as UNIX based systems.
  1262.  
  1263.           The work done in the course of developing the above codes 
  1264. have resulted in the following publications :
  1265.  
  1266. -----------------------------------------------------------------------------
  1267. s.no.          title                         author(s)           journal
  1268. -----------------------------------------------------------------------------
  1269.   1.  A General Parallel Solution        A.C. Limaye      J. Chem. Phys.
  1270.       to the Integral transformation     S.R. Gadre       (in press 1994) 
  1271.       and MP2 energy evaluation on
  1272.       distributed memory parallel
  1273.       machines.
  1274.  
  1275.   2.  Graphics visualization of          S.R. Gadre       J. Mol. Graphics
  1276.       molecular surfaces                 A. Taspa         (in press, 1993)
  1277.  
  1278.  
  1279.   3.  Development of a Restricted        R.N. Shirsat     J. Comp. Chem.
  1280.       Hartree-Fock program INDMOL on     A.C. Limaye      14, 445 (1993).
  1281.       PARAM : A Highly Parallel Computer S.R. Gadre
  1282.  
  1283.  
  1284.   4.  Molecular electrostatics of        S.R. Gadre       Curr. Sci.(India)
  1285.       [V  O  ]  cluster : a graphics     S. Bapat         62, 798 (1992).
  1286.       visualization study using PARAM    A. Taspa
  1287.                                          R.N. Shirsat
  1288.  
  1289.  
  1290.   5.  Parallelization of two-electron    S.R. Gadre       A Chapter in book
  1291.       integrals in molecular orbital     S.A. Kulkarni    "Advanced Computing"
  1292.       programs                           A.C. Limaye      Ed. V. P. Bhatkar
  1293.                                          A. Taspa         Tata-McGraw Hill,
  1294.                                          R.N. Shirsat     (1991).
  1295.  
  1296.  
  1297.   6.  Some aspects of parallelization    S.R. Gadre       Zeit. Phys. - D :
  1298.       of two-electron integrals in       S.A. Kulkarni    Atoms, Molecules
  1299.       molecular orbital programs         A.C. Limaye      and Clusters
  1300.                                          R.N. Shirsat     18, 357 (1991).
  1301.  
  1302.  
  1303.   7.  A General parallel algorithm for   S.R. Gadre       Chem. Phys. Letters
  1304.       the generation of molecular        S.V. Bapat       175, 307 (1990).
  1305.       electrostatic potential maps       K.Sundararajan 
  1306.                                          I.H. Shrivastava
  1307.  
  1308.   8.  Computation of molecular electro-  S.R. Gadre       Computers and
  1309.       static potential : Efficient       S. Bapat         Chemistry
  1310.       algorithm and parallelization      I.H. Shrivastava 15, 203 (1991).
  1311.  
  1312. -----------------------------------------------------------------------------
  1313.  
  1314.           I hope that this information will be sufficient.  We will 
  1315. appreciate receiving the information you have collected regarding other 
  1316. parallel efforts.
  1317.  
  1318.           Thank you very much.
  1319.                                              Yours sincerely,
  1320.  
  1321.  
  1322.  
  1323.                                              Professor S. R. Gadre
  1324.  
  1325. -- 
  1326. +-----------------------------------------------------------------------------+
  1327. | Milind A. Bhandarkar             | e-mail: mb@cs.buffalo.edu                |
  1328. | Home Address:                    | Office Address:                          |
  1329. |        116 Englewood Avenue,     |       Department of Comp. Sci.           |
  1330.  
  1331. Approved: parallel@hubcap.clemson.edu
  1332. Follow-up: comp.parallel
  1333. Path: bounce-back
  1334. Newsgroups: comp.parallel
  1335. From: toomer@CS.ColoState.EDU (christopher toomer)
  1336. Subject: Need info on weather modeling on parallel machines.
  1337. Sender: news@yuma.ACNS.ColoState.EDU (News Account)
  1338. Message-ID: <Oct01.195950.65830@yuma.ACNS.ColoState.EDU>
  1339. Date: Fri, 01 Oct 1993 19:59:50 GMT
  1340. Nntp-Posting-Host: beethoven.cs.colostate.edu
  1341. Organization: Colorado State University, Computer Science Department
  1342.  
  1343.   
  1344.  
  1345.      Hi all,
  1346.        
  1347.        I am writing a research paper for an undergraduate parallel systems
  1348.      class.  I have a special interest in weather modelling, and could use
  1349.      some help finding information about modeling weather on parallel machines.
  1350.      Does anyone know of books, theses, or people who are doing research in
  1351.      this area?  Please e-mail me at either of the below addresses with any
  1352.      information you have.  
  1353.  
  1354.      Thank you for your assistance.
  1355.  
  1356.      Chris Toomer
  1357.  
  1358.  
  1359.  
  1360.      toomer@cs.colostate.edu
  1361.      toomer@lily.aerc.colostate.edu
  1362.  
  1363.  
  1364.  
  1365. Approved: parallel@hubcap.clemson.edu
  1366. Follow-up: comp.parallel
  1367. Path: bounce-back
  1368. Newsgroups: comp.parallel
  1369. From: degroot@s905.dseg.ti.com (Doug DeGroot)
  1370. Subject: PARLE '94 - Call for Papers
  1371.  
  1372.                            CALL FOR PAPERS
  1373.                           -----------------
  1374.  
  1375.  
  1376.                               PARLE'94
  1377.              (PARALLEL ARCHITECTURES AND LANGUAGES EUROPE)
  1378.  
  1379.         June 13-17, 1994-- Intercontinental Hotel, Athens-Greece
  1380.  
  1381. Parallel processing is a discipline of strategic significance within the 
  1382. Information Technology sector. The PARLE conferences have been established
  1383. as major events of world wide reputation, where Academia and Industry meet
  1384. to exchange ideas and discuss key issues of common interest. PARLE'94 will
  1385. build upon the successes of the previous conferences and will cover the full
  1386. spectrum of parallel processing, ranging from theory to design and applications
  1387. of Parallel Computer Systems.
  1388.  
  1389. PARLE'94 will include tutorials covering advanced parallel processing techniques
  1390. and an exhibition featuring many of the leading international suppliers of 
  1391. parallel machines and software.
  1392.  
  1393. CONFERENCE AREAS.
  1394. ------------------------------------------------------------------------------
  1395. Parallel Machines and Systems.                Design of Parallel Programs
  1396.  __ shared, clustered and distributed          -- parallel algorithms.
  1397.     machines.                                  -- complexity analysis.    
  1398.  -- massively parallel machines.               -- specification and verification
  1399.  -- neural networks.                           -- formal program development
  1400.  -- evaluation, simulation and benchmarking.      methodologies.
  1401.                                                
  1402. Parallel Operating Systems.                   Parallel Programming Languages
  1403.  -- scheduling.                                -- language constructs.
  1404.  -- load balancing.                            -- semantics.
  1405.  -- memory management.                         -- programming environments.
  1406.  -- run time systems.                          -- implementation issues.
  1407.  
  1408. Design of Parallel Architectures              Applications of Parallel Systems
  1409.  -- multiprocessor design issues.              -- decision support.
  1410.  -- interconnection networks.                  -- databases.
  1411.  -- cache organization.                        -- industrial and business 
  1412.  -- specification and verification.               applications.
  1413.  -- special purpose architectures.             -- scientific computing.
  1414.  
  1415.  
  1416. SUBMISSION OF PAPERS
  1417. --------------------------------------------------------------------------------
  1418. Authors should send five paper copies of a full draft in English and not 
  1419. exceeding 6000 words to the official conference mailing address (see below)
  1420. before 19 November 1993.
  1421.  
  1422. A cover page should contain the author's full name, address, telephone number,
  1423. FAX number, e-mail address and a 100 word abstract together with a few keywords
  1424. (taken from the list of conference topics above). To allow submissions to be
  1425. refereed blind, the author's identity should appear only on the cover page.
  1426.  
  1427. Authors of high quality papers that cannot be included in the main conference
  1428. session but deserve presentation will be invited to participate in a poster
  1429. session to be held during conference. An A-4 page summary of such papers will
  1430. be published in the proceedings. Authors must include whether or not they
  1431. would accept such an invitation on the cover sheet. Authors will be notified
  1432. of acceptance by 11 February 1994. Camera ready copies of accepted papers
  1433. will be required by 18 March 1994.
  1434.  
  1435. =========================================================================
  1436. A best paper award will be presented at the conference. Also a best
  1437. paper award will be presented for contributors of age under 30, provided
  1438. they are the principal authors of the paper. 
  1439. ==========================================================================
  1440.  
  1441. OFFICIAL CONFERENCE MAILING ADDRESS
  1442. --------------------------------------------------------------------------
  1443. PARLE'94 /CTI
  1444. 3, Kolokotroni str.
  1445. 262 21 Patras,
  1446. Greece.
  1447.  
  1448. Tel. (+3061) 220 112
  1449. FAX. (+3061) 222 086
  1450. e-mail. parle@cti.gr
  1451.  
  1452.  
  1453. Approved: parallel@hubcap.clemson.edu
  1454. Follow-up: comp.parallel
  1455. Path: bounce-back
  1456. Newsgroups: comp.parallel
  1457. From: eugen@research.nj.nec.com (Eugen Schenfeld)
  1458. Subject: REMINDER: MPP-OI Wokrshop
  1459. Originator: eugen@juliet
  1460. Keywords: Reconfigurable Parallel Architectures, MPP, Optical Interconnections
  1461. Sender: eugen@research.nj.nec.com (Eugen Schenfeld)
  1462. Reply-To: kasinath@research.nj.nec.com
  1463. Organization: NEC Research Institute
  1464. Date: Sat, 2 Oct 93 01:09:31 GMT
  1465. Apparently-To: uunet!comp-parallel
  1466.  
  1467. =============================================================================
  1468.   REMINDER   REMINDER   REMINDER   REMINDER   REMINDER   REMINDER REMINDER 
  1469.   REMINDER   REMINDER   REMINDER   REMINDER   REMINDER   REMINDER REMINDER
  1470.   REMINDER   REMINDER   REMINDER   REMINDER   REMINDER   REMINDER REMINDER
  1471. =============================================================================
  1472.  
  1473.  
  1474.  
  1475.  
  1476.  
  1477.                        Call for Participation
  1478.  
  1479.                                 for
  1480.  
  1481.                  The First International Workshop on 
  1482.  
  1483.       MASSIVELY PARALLEL PROCESSING USING OPTICAL INTERCONNECTIONS
  1484.  
  1485.                            April 26-27, 1994
  1486.                           Westin Hotel Regina
  1487.                             Cancun,  Mexico
  1488.  
  1489.                              Sponsored by:
  1490.  
  1491.            ACM Special Interest Group on Architecture (SIGARCH)
  1492.                    The Optical Society of America (OSA)
  1493.           IEEE Technical Committee on Parallel Processing (TCPP)
  1494.          IEEE Technical Committee on Computer Architecture (TCCA)
  1495.            The Air Force Office of Scientific Research (AFOSR)
  1496.  
  1497.                       to be held in conjunction with 
  1498.  
  1499.           Eighth International Parallel Processing Symposium (IPPS)
  1500.  
  1501.  
  1502. SYMPOSIUM:  The eighth annual International Parallel Processing Symposium 
  1503. (IPPS '94) will be held April 26-29, 1994 at the Westin Hotel Regina, Cancun, 
  1504. Mexico. The symposium is sponsored by the IEEE Computer Society and will 
  1505. be held in cooperation with ACM SIGARCH. IPPS '94 is a forum for engineers 
  1506. and scientists from around the world to present the latest research 
  1507. findings in all aspects of parallel processing.
  1508.  
  1509.  
  1510. WORKSHOP: The first annual workshop on Massively Parallel Processing
  1511. Architectures using Optical Interconnections (MPP-OI '94) will be held on the
  1512. first and second days of the Symposium (April 26-27).  The workshop's focus is
  1513. the possible use of optical interconnections for massively parallel processing
  1514. systems, and their effect on system and algorithm design. Optics offer many
  1515. benefits for interconnecting large numbers of processing elements, but may
  1516. require us to rethink how we build parallel computer systems and communication
  1517. networks, and how we write applications.  Fully exploring the capabilities of
  1518. optical interconnection networks requires an interdisciplinary effort.  It is
  1519. critical that researchers in all areas of the field are aware of each other's
  1520. work and results. The intent of MPP-OI is to assemble the leading researchers
  1521. and to build towards a synergestic approach to MPP architectures, optical
  1522. interconnections, operating systems, and software development.
  1523.  
  1524. The workshop will feature an invited address, followed by several sessions of
  1525. submitted paper, and conclude with a panel discussion entitled, "Ways of Using
  1526. Optical Interconnections for MPPs In The Near Future (less than 10 years from
  1527. now)". Authors are invited to submit manuscripts which demonstrate original
  1528. unpublished research in areas of computer architecture and optical
  1529. interconnections. The topics of interest include but are not limited to the
  1530. following:
  1531.  
  1532.  
  1533.       Reconfigurable Architectures
  1534.       Optical interconnections
  1535.       Embedding and mapping of applications and algorithms
  1536.       Packaging and layout of optical interconnections
  1537.       Electro-optical, and opto-electronic components 
  1538.       Relative merits of optical technologies (free-space, fibers, wave guides)
  1539.       Passive optical elements 
  1540.       Algorithms and applications exploiting MPP-OI
  1541.       Data distribution and partitioning 
  1542.       Characterizing parallel applications exploiting MPP-OI
  1543.       Cost/performance studies
  1544.  
  1545. SUBMITTING PAPERS:  All papers will be reviewed by at least 2 members of
  1546. the program committee.  Send five (5) copies of complete  paper 
  1547. (not to exceed 15 single spaced, single sided pages) to:
  1548.  
  1549. Dr. Eugen Schenfeld
  1550. MPP-OI '94 Workshop Chair
  1551. NEC Research Institute
  1552. 4 Independence Way
  1553. Princeton, NJ 08540
  1554. USA
  1555.  
  1556. Manuscripts must be received by October 30, 1993.  Due to the 
  1557. large number of anticipated submissions manuscripts postmarked 
  1558. later than October 30, 1993 risk rejection.  (Post overseas 
  1559. submissions air mail.)  Notification of review decisions will 
  1560. be mailed by December 31, 1993.  Camera ready papers are due 
  1561. January 29, 1994.  Fax or electronic submissions will not be
  1562. considered. Proceedings will be published by the IEEE CS Press 
  1563. and will be available at the symposium.
  1564.  
  1565.  
  1566. WORKSHOP CHAIR:
  1567.  
  1568. Eugen Schenfeld
  1569. NEC Research Institute
  1570. 4 Independence Way
  1571. Princeton, NJ 08540
  1572. (voice) (609)951-2742
  1573. (fax)   (609)951-2482
  1574. email:  MPPOI@RESEARCH.NJ.NEC.COM
  1575.  
  1576.  
  1577.  
  1578. FOR MORE INFORMATION: Please write (email) to the Workshop Chair.
  1579.  
  1580.  
  1581. PROGRAM COMMITTEE:
  1582.  
  1583. Karsten Decker, Swiss Scientific Computing Center, Manno, Switzerland
  1584. Patrick Dowd, Dept. of ECE, SUNY at Buffalo, Buffalo, NY
  1585. John Feo, Comp. Res. Grp., Lawrence Livermore Nat. Lab., Livermore, CA
  1586. Asher Friesem, Dept. of Electronics, Weizmann Inst., Israel
  1587. Allan Gottlieb, Dept. of CS, New-York University, New-York, NY
  1588. Joe Goodman, Department of EE, Stanford University, Stanford, CA
  1589. Alan Huang, Computer Systems Research Lab., Bell Labs., Holmdel, NJ
  1590. Yoshiki Ichioka, Dept. of Applied Physics, Osaka U., Osaka, Japan
  1591. Leah Jamieson, School of EE, Purdue University, West Lafayette, IN
  1592. Lennart Johnsson, Div. of Applied Science, Harvard U. and TMC, Cambridge, MA
  1593. Israel Koren, Dept. of ECS, U. of Mass, Amherst, MA
  1594. Raymond Kostuk, Dept. of ECE, U. of Arizona, Tucson, AZ
  1595. Philippe Lalanne, Inst. D'Optique, Orsay, France
  1596. Sing Lee, Dept. of EE, UCSD, La Jolla, CA
  1597. Steve Levitan, Department of EE, U. of Pittsburgh, Pittsburgh, PA
  1598. Adolf Lohmann, Institute of Physics, U. of Erlangen, Erlangen, Germany
  1599. Miroslaw Malek, Dept. of ECE, U. of Texas at Austin, Austin TX
  1600. J. R. Moulic, IBM T. J. Watson Research Center, Yorktown Heights, NY
  1601. Miles Murdocca, Department of CS, Rutgers University, New Brunswick, NJ
  1602. John Neff, Opto-elec. Comp. Sys., U. of Colorado, Boulder, CO
  1603. Viktor Prasanna, Department of EE, USC, Los-Angeles, CA
  1604. Paul Prucnal, Department of EE, Princeton U., Princeton, NJ
  1605. John Reif, Department of CS, Duke University, Durham, NC
  1606. A. A. Sawchuk, Dept. of EE, USC, Los-Angeles, CA
  1607. Eugen Schenfeld, NEC Research Institute, Princeton, NJ
  1608. Larry Snyder, Department of CS, U. of Washington, Seattle, WA
  1609. Harold Stone, IBM T. J. Watson Research Center, Yorktown Heights, NY
  1610. Les Valiant, Div. of Applied Science, Harvard University, Cambridge, MA
  1611.  
  1612.  
  1613. CANCUN, MEXICO: The Yucatan peninsula with a shoreline of over 1600 
  1614. kilometers is one of Mexico's most exotic areas.  Over a thousand 
  1615. years ago the peninsula was the center of the great Mayan civilization.  
  1616. Cancun with it's powder fine sand and turquoise water is a scenic haven 
  1617. for sun lovers and archaeological buffs alike, and our Mexican hosts are 
  1618. eager to extend every hospitality for our visit to their part of the world.
  1619.  
  1620. Air travel to Cancun is available from most major U.S. cities, and U.S.
  1621. and Canadian citizens do not require visas to visit Mexico.  The
  1622. Westin Hotel Regina is a self-contained meeting facility with spacious,
  1623. air-conditioned rooms, on-site restaurants, and all the services of a 
  1624. world class hotel.  Travel packages to various other nearby hotels
  1625. (including reduced airfare, and accommodation) are also available from
  1626. most travel agents. Cancun is a dazzling resort with golf, tennis, and 
  1627. every water sport under the sun, and the area offers exciting nightlife, 
  1628. fabulous shopping, and historic Mayan ruins.
  1629.  
  1630. ========================================================================
  1631.  
  1632.  
  1633. Approved: parallel@hubcap.clemson.edu
  1634. Follow-up: comp.parallel
  1635. Path: bounce-back
  1636. Newsgroups: comp.parallel
  1637. From: "Andrew Singleton" <p00396@psilink.com>
  1638. Subject: Ncube address
  1639. Date: Fri, 01 Oct 93 13:10:15 -0500
  1640. Organization: Creation Mechanics
  1641.  
  1642. Could someone please post me the name and address of a marketing person 
  1643. at Ncube?
  1644.  
  1645.  
  1646. Approved: parallel@hubcap.clemson.edu
  1647. Follow-up: comp.parallel
  1648. Path: bounce-back
  1649. Newsgroups: comp.parallel
  1650. From: steveq@umiacs.umd.edu (Stephen Quirolgico)
  1651. Subject: Compiler questions
  1652. Date: 2 Oct 1993 22:37:47 GMT
  1653. Organization: UMIACS, University of Maryland, College Park, MD 20742
  1654. Nntp-Posting-Host: ghidrah.umiacs.umd.edu
  1655.  
  1656. Hello,
  1657.  
  1658. I have a number of questions -- any help would be greatly appreciated.
  1659.  
  1660. 1.  Does there exist a Modula* compiler for a SIMD, SAMD, or Cray-T3D machine?
  1661.     I would be very interested in prototypes that exist.
  1662. 2.  Does anyone have any information on the Triton Project from the
  1663.     University of Karlsruhe? 
  1664. 3.  Does there exist a parallel logic programming compiler for a SIMD, SAMD,
  1665.     or Cray-T3D?  I am particularly interested in a SAMD or T3D compiler.  I
  1666.     would be very interested in any prototypes that exist.
  1667.  
  1668. Thank you,
  1669. Stephen Quirolgico
  1670.  
  1671.  
  1672. Approved: parallel@hubcap.clemson.edu
  1673. Follow-up: comp.parallel
  1674. Path: bounce-back
  1675. Newsgroups: comp.parallel
  1676. From: herlihy@crl.dec.com (Maurice Herlihy)
  1677. Subject: Tech report: contention in shared-memory algorithms
  1678. Organization: DEC Cambridge Research Lab
  1679.  
  1680. A new CRL technical report is available:
  1681.  
  1682.             CRL Technical Report 93/12
  1683.                        
  1684.             Contention in Shared Memory Algorithms
  1685.                                   
  1686.              Cynthia Dwork, Maurice Herlihy, 
  1687.                    and Orli Waarts
  1688.                        
  1689.                     August 6, 1993
  1690.                        
  1691.  
  1692.  
  1693. Most complexity measures for concurrent algorithms for asynchronous 
  1694. shared-memory architectures focus on process steps and memory consumption.
  1695. In practice, however, performance of multiprocessor algorithms is heavily 
  1696. influenced by contention, the extent to which processes access the same 
  1697. location at the same time.  Nevertheless, even though contention is 
  1698. one of the principal considerations affecting the performance of real 
  1699. algorithms on real multiprocessors, there are no formal tools for 
  1700. analyzing the contention of asynchronous shared-memory algorithms.
  1701.  
  1702. This paper introduces the first formal complexity model for contention
  1703. in multiprocessors.  We focus on the standard multiprocessor architecture
  1704. in which n asynchronous processes communicate by applying read, write,
  1705. and read-modify-write operations to a shared memory.  We use our model
  1706. to derive two kinds of results: (1) lower bounds on contention for well
  1707. known basic problems such as agreement and mutual exclusion, and (2)
  1708. trade-offs between latency (maximal number of accesses to shared variables
  1709. performed by a single process in executing the algorithm) and contention
  1710. for these algorithms. Furthermore, we give the first formal performance
  1711. analysis of counting networks, a class of concurrent data structures
  1712. implementing shared counters. Experiments indicate that certain counting
  1713. networks outperform conventional single-variable counters at high levels
  1714. of contention.  Our analysis provides the first formal explanation for
  1715. this phenomenon.
  1716.  
  1717. To retrieve the abstract for any report or note, send a message saying
  1718. (for example) "send abstract 90/3" or "send abstract 90/3 90/2", using
  1719. the number of the desired technical report to:
  1720.             techreports@crl.dec.com (Internet)
  1721.             crl::techreports (DECnet)
  1722.  
  1723. To retrieve the PostScript for any report or note, send a message saying
  1724. (for example) "send postscript 90/3" or "send postscript 90/3 90/2", using
  1725. the number of the desired technical report to:
  1726.             techreports@crl.dec.com (Internet)
  1727.             crl::techreports (DECnet)
  1728.  
  1729.  
  1730. Abstracts and PostScript versions of the CRL technical reports are
  1731. also available via anonymous FTP to crl.dec.com, in the directory
  1732. /pub/DEC/CRL/{abstracts,tech-reports}.
  1733.  
  1734. To be added to the mailing list for announcements of CRL technical reports,
  1735. send mail to
  1736.         techreports-interest-request@crl.dec.com (Internet)
  1737.         crl::techreports-interest-request (DECnet)
  1738.  
  1739.  
  1740. Michelle Gillespie                                        Cambridge Research Lab
  1741. michelle@crl.dec.com                                      Digital Equipment Corp.
  1742.  
  1743.  
  1744.  
  1745.  
  1746.  
  1747.  
  1748. Approved: parallel@hubcap.clemson.edu
  1749. Follow-up: comp.parallel
  1750. Path: bounce-back
  1751. Newsgroups: comp.parallel
  1752. From: dchan@spock.usc.edu (Daniel Chan)
  1753. Subject: Stanford DASH project
  1754. Organization: University of Southern California, Los Angeles, CA
  1755.  
  1756. I am interested in learning more about the DASH project, and 
  1757. am looking for ftp sites that I can download related 
  1758. papers and laboratory reports from.
  1759.  
  1760. Thank you for your time.
  1761.  
  1762. Dan Chan
  1763.  
  1764.  
  1765. Approved: parallel@hubcap.clemson.edu
  1766. Follow-up: comp.parallel
  1767. Path: bounce-back
  1768. Newsgroups: comp.parallel
  1769. From: stubbi@gmd.de (Stephan Springstubbe, Z1.HR 2337)
  1770. Subject: Re: HPF/F90 Benchmarks
  1771. Reply-To: stubbi@gmd.de
  1772. Organization: GMD, Sankt Augustin, Germany.
  1773. References: <1993Oct1.124747.4422@hubcap.clemson.edu>
  1774.  
  1775. Hi!
  1776.  
  1777. I don't know where other people get (official) informations
  1778. [hi, Rusty :-)] about HPF/Fortran-D Benchmarking Suite, but 
  1779. you can try it at:
  1780.     minerva.npac.syr.edu
  1781. under:
  1782.     /benchmark/suite
  1783.  
  1784.  
  1785. Greetings, Stephan
  1786.  
  1787. Stephan Springstubbe 
  1788. German National Research Center For Computer Science
  1789. Department of Supercomputing
  1790. Schloss Birlinghoven
  1791. Germany
  1792.  
  1793. Approved: parallel@hubcap.clemson.edu
  1794. Follow-up: comp.parallel
  1795. Path: bounce-back
  1796. Newsgroups: comp.parallel
  1797. From: chipr@joseph.WPI.EDU (Norman E Rhodes)
  1798. Subject: Benchmarks
  1799. Date: 4 Oct 1993 11:40:56 GMT
  1800. Organization: Worcester Polytechnic Institute
  1801.  
  1802. Could someone please mail me the names and/or locations of some source code
  1803. for parallel computing benchmarks.  Any response would be appreciated.
  1804.  
  1805.  
  1806.     mail to :  chipr@wpi.wpi.edu
  1807.  
  1808.  
  1809.  
  1810. Approved: parallel@hubcap.clemson.edu
  1811. Follow-up: comp.parallel
  1812. Path: bounce-back
  1813. Newsgroups: comp.parallel
  1814. From: fismith@ac.dal.ca
  1815. Subject: Parallel Debuggers, Performance Monitors
  1816. Organization: Dalhousie University, Halifax, Nova Scotia, Canada
  1817.  
  1818. Hi:
  1819.  
  1820. Would someone please give me some pointers into the
  1821. current state of the art for parallel debuggers
  1822. and performance monitors?
  1823.  
  1824. Thanks in advance,
  1825.  
  1826. --
  1827. Frank Smith                             email: frank@arraysystems.nstn.ns.ca
  1828. Array Systems Computing Inc.            Phone: (902) 468-8991
  1829. 1000 Windmill Road, Suite 10            FAX:   (902) 468-8980
  1830. Dartmouth, N.S. Canada B3B 1L7
  1831.  
  1832. Approved: parallel@hubcap.clemson.edu
  1833. Follow-up: comp.parallel
  1834. Path: bounce-back
  1835. Newsgroups: comp.parallel
  1836. From: ghsu%unstable@relay.nswc.navy.mil (Guan-Hsong Hsu)
  1837. Subject: [Q] LINDA or similar type of compilers
  1838. Organization: Naval Surface Warfare Center
  1839.  
  1840. Dear Netters, 
  1841.  
  1842.    This is really not quite "massively parallel" computation, but a
  1843. first step toward it, we hope.   We need some advise and suggestion
  1844. about the cost and benefit of compilers such as LINDA.   Please direct
  1845. m to a more appropriate news group, or suggest information, readings,
  1846. etc.   Any comment/suggestion is welcome.
  1847.  
  1848.    We will have a nework of 6 HP 700 series workstations (some
  1849. 735s and some 720s) connected through ethernet.   In order to (1)
  1850. better utilize the system resource, and (2) simulate a parallel
  1851. computing environment that we hope to move into, we are considering
  1852. getting one of those compilers, such as LINDA, to better utilize the
  1853. resources.   Now here are my questions:
  1854.  
  1855.    (1) What is the appropriate way to describe compilers like LINDA
  1856. that runs on a network and distribute resources, or simulates a
  1857. parallel computer on a network.    For now, I'll call then network
  1858. compilers. 
  1859.  
  1860.    (2) A large body of our codes are written in FORTRAN.   Does that
  1861. make our use of network compilers difficult?    Can it be done,
  1862. through mixed language programming, i.e., write main driver in C and
  1863. call FORTRAN modules to do the job, or do we have to rewrite codes in
  1864. C to use the compilers?    Can we avoid mixed language?
  1865.  
  1866.    (3) What configuration of computers is better for the network
  1867. compiler working efficiently?   Most system with almost equal speed
  1868. and memory size, or one powerful fast one as server?   Or, it might
  1869. not matter?
  1870.  
  1871.    (4) I saw people asking questions about simulator programs in this
  1872. news group, is there a network compiler that simulates (in a scaled
  1873. down way) some truly massively parallel computers, say the Intel
  1874. Paragon? 
  1875.  
  1876.     Thank you all in advance.
  1877.  
  1878. Guan-Hsong Hsu                   Email: ghsu@unstable.nswc.navy.mil
  1879. Nonlinear Dynamics Group                (301)394-5289, 394-5290
  1880. Mathematics and Computations Branch (B40)
  1881. NSWC, Silver Spring, MD 20903-5640
  1882.  
  1883.  
  1884. Approved: parallel@hubcap.clemson.edu
  1885. Follow-up: comp.parallel
  1886. Path: bounce-back
  1887. Newsgroups: comp.parallel
  1888. From: snoo@uni-paderborn.de (Holger Naundorf)
  1889. Subject: Q:virtual shared memory
  1890. Organization: Uni-GH Paderborn, Germany
  1891. Nntp-Posting-Host: noether.uni-paderborn.de
  1892. Keywords: shared memory
  1893.  
  1894. Does anyone know a public domain software that simulates a
  1895. shared memory maschine on a network of Sun workstations?
  1896.  
  1897. Thanks in advance,
  1898.      Holger Naundorf
  1899.      snoo@uni-paderborn.de
  1900.  
  1901.  
  1902.  
  1903. Approved: parallel@hubcap.clemson.edu
  1904. Follow-up: comp.parallel
  1905. Path: bounce-back
  1906. Newsgroups: comp.parallel
  1907. From: rajesh@npac.syr.edu (Rajesh R. Bordawekar)
  1908. Subject: Looking for Parallel Code for out-of-core solvers
  1909.  
  1910. Hi
  1911.  
  1912. I was looking for parallel code performing out-of-core computations, (for
  1913. example LU, CG, SVD etc). Preferably the code should be written for either 
  1914. Intel (i860/delta/Paragon) or NCube.
  1915. Please send your replies to
  1916. rajesh@tonto.npac.syr.edu
  1917.  
  1918. Thanks
  1919.  
  1920. rajesh
  1921.  
  1922. ---------------------------------------------------------------
  1923.  
  1924. Approved: parallel@hubcap.clemson.edu
  1925. Follow-up: comp.parallel
  1926. Path: bounce-back
  1927. Newsgroups: comp.parallel
  1928. From: tony@aurora.cs.msstate.edu (Tony Skjellum)
  1929. Subject: Scalable Parallel Libraries Conference, Final Program
  1930. Organization: Mississippi State University
  1931. Nntp-Posting-Host: aurora.cs.msstate.edu
  1932. Summary: Here is the final program
  1933. Keywords: Scalable Parallel Libraries
  1934.  
  1935.  
  1936.                    *** FINAL PROGRAM ***
  1937.  
  1938.             Scalable Parallel Libraries Conference
  1939. (including Multicomputer Toolbox Developers' & Users' Meeting)
  1940.  
  1941.                        October 6-8, 1993
  1942.     National Science Foundation Engineering Research Center
  1943.                  for Computational Field Simulation,
  1944.               Mississippi State, Mississippi
  1945.  
  1946. The Scalable Libraries Conference is designed to
  1947.  
  1948.     . complement other, larger, general conferences in 
  1949.         high performance computing,
  1950.     . bring together key researchers from national laboratories, industry,
  1951.         and academia to effect technology transfer of high performance
  1952.         computing software and effect an interchange of ideas,
  1953.     . include vendors as attendees, but not include promotional activities,
  1954.     . provide invited talks on topics involving application of scalable
  1955.         libraries in applications, developments in scalable libraries,
  1956.         and related issues (such as message-passing technology),
  1957.     . provide for contributed posters to allow further interchange of
  1958.         ideas,
  1959.     . introduce potential users to the work done at our center on the 
  1960.         scalable libraries, a specific example of technology we hope 
  1961.         to transfer.
  1962.     , provide user of scalable libraries with an opportunity to impact
  1963.         research in the area (ie, complain/suggest needs/requirements),
  1964.     . There will be no parallel sessions (except that posters will be
  1965.         displayed for at least one full day).
  1966.     . A proceedings of the invited papers and contributed posters will
  1967.              be made; the paper deadline will be at the conference.
  1968.  
  1969.  
  1970. **** Wednesday, October 6 ****
  1971.  
  1972. 8:00-9:00am    Registration (Registration will continue all day)
  1973. 9:00am-9:10am  Welcome, Prof. Don Dearholt, Head, CS Department
  1974. 9:10am-9:15am  Introduction of Keynote speaker Charles L. Seitz, [intro by Anthony Skjellum]
  1975.  
  1976. **** KEYNOTE ADDRESS ****
  1977.  
  1978. 9:15am-10:15am
  1979. Charles L. Seitz, Caltech,
  1980. Title:  "High-Performance Workstations + High-Speed LANs >= Multicomputers"
  1981.  
  1982. 10:15am - 10:30am, BREAK
  1983.  
  1984. 10:30am-11:15am
  1985. Louis Turcotte, WES (Vicksburg)
  1986.      Title: "The National High Performance Distributed Computing Consortium -- A Proposal"
  1987.  
  1988. 11:15am-12:00n
  1989. David Womble, Sandia ALBQ
  1990.      Title: "Out of core, out of mind: making parallel I/O practical".  
  1991.  
  1992. 12:00n - 1:00pm Lunch at ERC [Lunch each day included with Registration Fee]
  1993.  
  1994. 1:00pm - 1:45pm
  1995. Robert Falgout, LLNL
  1996.      Title: "Modeling Groundwater Flow on Massively Parallel Computers"
  1997.  
  1998. 1:45pm - 2:30pm
  1999. Milo R. Dorr, LLNL
  2000.      Title: "A Concurrent, Multigroup, Discrete Ordinates Model of Neutron Transport"
  2001.  
  2002. 2:30pm - 2:45pm, BREAK
  2003.  
  2004. 2:45pm-3:30pm
  2005. Nikos Chrisochoides, NPAC Syracuse
  2006.      Title: "An alternative to data-mapping for scalable iterative PDE
  2007.              solvers : Parallel Grid Generation"
  2008.  
  2009. 3:30pm - 4:15pm
  2010. Alan Sussman, U. Maryland
  2011.      Title: "Design of a Runtime Library for Managing Dynamic Distributed Data Structures",
  2012.  
  2013. 4:15 - 5:00pm
  2014. S. Lennart Johnsson, Harvard University and Thinking Machines Corp.
  2015.      Title: "Scientific Libraries on Scalable Architectures"
  2016.  
  2017. 7:00pm - 9:30pm (or so)
  2018. *** INFORMAL DINNER AT OBY's RESTAURANT [ATTENDEES PAY] ***
  2019.  
  2020. Thursday, October 7
  2021.  
  2022. 8:30am - 8:45am, Welcome, Joe F. Thompson, Director of NSF ERC
  2023.  
  2024. 8:45am - 9:30am
  2025. Sanjay Ranka, NPAC Syracuse
  2026.      Title: "Scalable Libraries for High Performance Fortran"
  2027.  
  2028. 9:30am - 10:15am
  2029. Dan Quinlan, LANL
  2030.      Title: "Run-time Recognition of Task Parallelism Within the P++
  2031.              Parallel Array Class Library"
  2032.  
  2033. 10:15am - 10:30am, BREAK
  2034.  
  2035. 10:30am - 11:15am
  2036. William Gropp, Argonne National Laboratory
  2037.      Title: "Scalable, Extensible, and Portable Numerical Libraries"
  2038.  
  2039. 11:15am-12:00n
  2040. Anthony Skjellum,  MSU/NSF ERC
  2041.      Title:  "The Multicomputer Toolbox: Current and Future Directions"
  2042.  
  2043.  
  2044. 12:00n - 1:00pm Lunch at ERC
  2045.  
  2046. 1:00 - 1:45pm
  2047. David Walker, ORNL
  2048.     Title: "The design of scalable linear algebra libraries for concurrent computers"
  2049.  
  2050. 1:45 - 2:15pm
  2051. Dan Reed, UIUC
  2052.      Title: "Performance Evaluation and Presentation Techniques for Massively Parallel Systems"
  2053.  
  2054. 2:30pm - 2:45pm BREAK
  2055.  
  2056. 2:45pm - 3:30pm
  2057. Padma Raghavan, UIUC/NCSA
  2058.      Title: "Parallel Solution of Linear Systems using Cholesky Factorization"
  2059.  
  2060. 3:30pm - 4:15pm
  2061. Anna Tsao, SRC
  2062.      Title: "The PRISM Project: Infrastructure and Algorithms for Parallel
  2063.              Eigensolvers"
  2064.  
  2065. 4:15pm - 5:00pm
  2066. Chuck Baldwin, UIUC
  2067.      Title: "Dense and Iterative Concurrent Linear Algebra in the
  2068.              Multicomputer Toolbox"
  2069.  
  2070. 5:00pm - 5:45pm
  2071. Steve Lederman, SRC
  2072.      Title: "Comparison of Scalable Parallel Matrix Multiply Libraries"
  2073.  
  2074. 7:00pm - 9:30pm (or so)
  2075. *** CONFERENCE BANQUET AT STATE HOUSE HOTEL [MEAL INCLUDED WITH REGISTRATION] ***
  2076. [There will be no speech at the banquet, so please attend.  Just a short
  2077. "hello" by one of the MSU principals.]
  2078.  
  2079. **** Friday, October 8 ****
  2080.  
  2081. 8:45am - 9:30am
  2082. Steven Smith, LLNL
  2083.      Title: "High-Level Message-Passing Constructs for Zipcode 1.0:
  2084.         Design and Implementation"
  2085.  
  2086. 9:30am - 10:15am
  2087. Charles H. Still, LLNL
  2088.      Title: "The Multicomputer Toolbox: Experiences with the Meiko CS-2".  
  2089.  
  2090. 10:15am - 10:30am, Break
  2091.  
  2092. 10:30am-11:15am
  2093. Ewing Lusk, Argonne National Laboratory
  2094.      Title: "The MPI Communication Library:  Its Design and a Portable Implementation"
  2095.  
  2096. 11:15am-12:00n
  2097. Anthony Skjellum,  MSU/NSF ERC
  2098.      Title:  "Building Parallel Libraries using MPI"
  2099.  
  2100. 12:00n - 1:00pm Lunch at ERC 
  2101.  
  2102. 1:00p- 1:45pm 
  2103. Linda Petzold, AHPCRC & UMN
  2104.      Title: "Solving Large-Scale Differential-Algebraic Systems via DASPK on the CM5"
  2105.  
  2106. 1:45pm - 2:30pm
  2107. Dan Meiron, Caltech
  2108.    Title: "Using Archetypes to Develop Scientific Parallel Applications"
  2109.  
  2110. 2:30pm - 2:35pm  Conference Concluding Remarks, Anthony Skjellum
  2111.  
  2112. **** CONFERENCE ENDS AT 3:00pm **** 
  2113.  
  2114.  
  2115. Contributed Posters (on display all day on Thursday, October 7):
  2116.  
  2117. Poster Setup... afternoon on October 6, starting 8am on October 7.
  2118.  
  2119. 1. Edward Luke, MSU/ERC, Mississippi State University,
  2120.    Title: "The Definition and Measurement of Scalable Parallel Algorithms"
  2121.  
  2122. 2. Leah H. Jamieson, Ashfaq Khokhar, Jamshed Patel, and Chao-Chun Wang
  2123.    School of Electrical Engineering, Purdue University
  2124.    Title: "A Library-Based Program Development Environment for Parallel
  2125.        Image Processing"
  2126.  
  2127. 3. David Koester, Sanjay Ranka, and Geoffrey Fox, NPAC Syracuse University,
  2128.    Title: "Parallel Block-Diagonal-Bordered Sparse Matrix Algorithms
  2129.             for Electrical Power System Applications"
  2130.  
  2131. 4. Alvin P. Leung, NPAC, Syracuse University; Anthony Skjellum, MSU/ERC,
  2132.    Title: "Concurrent DASSL: A Second-Generation, DAE Solver Library"
  2133.  
  2134. 5. Antoine P. Petitet, University of Tennessee, Computer Science Department
  2135.    Title: "Implementation and use of scalable parallel libraries
  2136.             to solve the nonsymmetric eigenproblem"
  2137.  
  2138. 6. Roldan Pozo, University of Tennessee, Computer Science Department
  2139.    Title: "ScaLAPACK++: An Object Oriented Linear Algebra 
  2140.             Library for Scalable Systems"
  2141.  
  2142. 7. Rahul Bhargava, Geoffrey Fox, Chao-Wei Ou, Sanjay Ranka and Virinder Singh,
  2143.     NPAC Syracuse University,
  2144.    Title: "Scalable Libraries for Graph Partitioning"
  2145.  
  2146. 8. Subhash Saini and Horst D. Simon,
  2147.    Numerical Aerodynmical Simulation Facility, NASA Ames Research Center
  2148.    Title: "Performance of BLAS 1, 2 and 3 on NAS Intel Paragon XP/S-15"
  2149.  
  2150. 9. Kamala Anupindi, NPAC Syracuse University, Anthony Skjellum, MSU/ERC,
  2151.    Paul Coddington and Geoffrey Fox, NPAC Syracuse University,
  2152.    Title: "Parallel Differential Algebraic Equations (DAEs) Solvers for
  2153.             Electrical Power System Transient Stability Analysis"
  2154.  
  2155. 10. Steven F. Ashby, Robert D. Falgout, Steven G. Smith, Andrew F. B. Tompson,
  2156.     Lawrence Livermore National Laboratory,
  2157.     Title: "High Performance Computing Strategies for Detailed Simulation
  2158.              of Subsurface Flow and Chemical Migration"
  2159.  
  2160. 11. Jaeyoung Choi, Oak Ridge National Laboratory,
  2161.     Jack J. Dongarra, University of Tennessee and Oak Ridge National Laboratory,
  2162.     David W. Walker, Oak Ridge National Laboratory
  2163.     Title: "Parallel Matrix Transpose Algorithms on Distributed
  2164.              Memory Concurrent Computers"
  2165.  
  2166. 12. George Adams III and Allan D. Knies, Purdue University, 
  2167.     Title: "The Integrated Library Approach to Parallel Computing"
  2168.  
  2169. --
  2170.     .    .    .    .    .    .    .    .      .
  2171. "There is no lifeguard at the gene pool." - C. H. Baldwin
  2172.             -             -                       -
  2173. Anthony Skjellum, MSU/ERC, (601)325-8435; FAX: 325-8997; tony@cs.msstate.edu
  2174.  
  2175. Approved: parallel@hubcap.clemson.edu
  2176. Follow-up: comp.parallel
  2177. Path: bounce-back
  2178. Newsgroups: comp.parallel
  2179. From: wang@astro.ocis.temple.edu (Jonathan Wang ( the-wang ))
  2180. Subject: Parallel Algorithm for Linear Equations?
  2181.  
  2182. I am looking for a parallel algorithm to solve a 5000x5000 matrix of linear 
  2183. equations. I did poorly in college math, but I seem to remember there
  2184. were only sequential solutions -- at least in my text book.
  2185.  
  2186. Any parallel people out there can give me a hand?
  2187.  
  2188. Thanks in advance.
  2189.  
  2190. --wang
  2191. P.S. I realized this is a moderated group, ... but I don't know whom I 
  2192. should contact ... anyway, my apologies for any trouble I made.
  2193.  
  2194. Approved: parallel@hubcap.clemson.edu
  2195. Follow-up: comp.parallel
  2196. Path: bounce-back
  2197. From: elias@TC.Cornell.EDU (Doug Elias)
  2198. Newsgroups: comp.parallel,comp.parallel.pvm,comp.sys.super,comp.arch
  2199. Subject: Parallel Programming Environments Survey -- Update
  2200. Date: 4 Oct 93 13:21:09
  2201. Organization: Software and Consulting Support Group, Cornell Theory Center,
  2202.     C.U.
  2203. Nntp-Posting-Host: wonton.tc.cornell.edu
  2204.  
  2205.  
  2206. Greetings...
  2207.  
  2208. Once again, many thanks to the growing number of you who have taken
  2209. the necessary time out of your busy schedules to complete and return
  2210. the PPE survey i posted to these newsgroups a couple of weeks ago, and
  2211. which is still available via anon-ftp on theory.tc.cornell.edu as
  2212. /pub/PPE_Survey (for those of you without ftp access, just drop me a
  2213. note and i'll email you copy).
  2214.  
  2215. i've been repeatedly asked to consider relaxing two of the restrictions 
  2216. for the inclusion of a given PPE in the survey, those being "in use at
  2217. >= 5 sites" and "runs on more than 1 type of machine".  i'm sure the
  2218. reasons for these requirements are perfectly clear (no "research
  2219. projects", and "widespread applicability"), but i have no intention of
  2220. arbitrarily limiting information-flow, so consider those restrictions
  2221. relaxed.  
  2222.  
  2223. A few comments regarding the rather intimidating length of the survey:
  2224.  
  2225. 1) of all respondents-to-date, only *1* required more than 40 minutes,
  2226.    and that one took about an hour;
  2227. 2) if you don't think some of the characteristics are relevant, skip
  2228.    'em -- i'll take whatever i can get;
  2229. 3) at the VERY LEAST: look over the list of major categories at the
  2230.    end of the actual survey, and indicate what you think their
  2231.    importance-ordering is;
  2232. 4) i ain't kidding: people from all-over-the-world are asking for
  2233.    copies of the results -- your opinions are of very great interest
  2234.    to a large group of people!
  2235.  
  2236. Please -- keep the survey in a window on your workstation and put a
  2237. few minutes into it every once in a while, take a copy home and fill
  2238. it in while you're watching TV (i'll take hardcopy, hell, i'll take
  2239. ANYTHING), any way that works for you: the only thing that's important
  2240. is that others are given the benefit of your experiences and opinions. 
  2241.  
  2242. Thanks, and i'm definitely looking forward to tipping a few (on
  2243. me...what a pun) with all of you who've done me the favor of
  2244. responding. 
  2245.  
  2246. doug
  2247. --
  2248. #  ____    |Internet:   elias@tc.cornell.edu
  2249. #dr _|_)oug|USmail:     Sci.Comp.Support/Cornell Theory Center
  2250. #  (_|     |            737 TheoryCtrBldg/C.U./Ithaca/N.Y./14853-3801
  2251.  
  2252.  
  2253. Approved: parallel@hubcap.clemson.edu
  2254. Follow-up: comp.parallel
  2255. Path: bounce-back
  2256. Newsgroups: comp.parallel
  2257. From: dduke@ibm1.scri.fsu.edu (Dennis Duke)
  2258. Subject: Cluster Workshop '93 - Second Announcement
  2259.  
  2260. -- 
  2261.                          CLUSTER WORKSHOP '93
  2262.  
  2263.                          Second Announcement
  2264.                 NOVEMBER 1, 1993 DEADLINE FOR ABSTRACTS
  2265.  
  2266.              Supercomputer Computations Research Institute
  2267.                         Florida State University
  2268.                        Tallahassee, Florida 32306
  2269.  
  2270.             Tuesday, December 7 - Thursday, December 9, 1993
  2271.  
  2272.                             NEW THIS YEAR
  2273.                      Special Tutorial/Vendor Day
  2274.                        Monday, December 6, 1993
  2275.  
  2276.        Organizers: Sudy Bharadwaj (sudy@sca.com), SCA
  2277.                    Peter Dragovitsch (drago@scri.fsu.edu), SCRI, FSU
  2278.                    Dennis Duke (dduke@scri.fsu.edu), SCRI, FSU
  2279.                    Adam Kolawa (ukola@flea.parasoft.com), Parasoft
  2280.            Tim Mattson (tgm@SSD.intel.com), Intel
  2281.                    Neil Lincoln (nrl@nips.ssesco.com), SSESCO
  2282.                    Vaidy Sunderam (vss@mathcs.emory.edu), Emory University
  2283.  
  2284. Cluster Workshop '93 continues the series of cluster computing workshops
  2285. held at SCRI in 1991 and 1992. The nature of the workshop (submission, 
  2286. sessions, proceedings) is deliberately designed to enable maximum
  2287. dissemination and exchange of information in the most timely manner possible.
  2288.  
  2289. The goal of the workshop is to bring together people who are interested in
  2290. the issues of using heterogeneous clusters of computers as computational 
  2291. resources. This group of people would include:
  2292.  
  2293.  - computational scientists or other end-users who desire to exploit 
  2294.    the power and capabilities of heterogeneous clusters as an
  2295.    alternative to or in conjunction with conventional supercomputers or MPP's
  2296.  
  2297.  - software developers of queuing systems, parallel processing packages, and
  2298.    other software tools 
  2299.  
  2300.  - system administrators interested in both the strategic and technical issues
  2301.    of running clusters, including in general any kind of heterogeneous
  2302.    collection of networked computers
  2303.  
  2304.  - vendors who are developing products to serve this market:
  2305.    (a) new generations of high performance workstations
  2306.    (b) new forms of packaging of workstations
  2307.    (c) new high speed networking products
  2308.    (d) new products for addressing mass storage and other I/O needs
  2309.    (e) any other applicable technology
  2310.  
  2311.  - persons who would like to share their experiences, and especially give
  2312.    critical advice on desired user requirements, shortcomings of present
  2313.    hardware and software configurations, successes and failures to date,
  2314.    overviews of planned projects, etc.
  2315.  
  2316. Although most practical implementations of clusters to date consist of 
  2317. collections of RISC workstations, we are interested also in more general
  2318. configurations which might include any number of distinct architectures, 
  2319. and a variety of new high-speed network interconnections.
  2320.  
  2321. The format of the workshop will be to fill the day with contributed and
  2322. invited talks, and to have informal evening gatherings designed to further
  2323. enhance the opportunity for information exchange. We especially encourage
  2324. contributions of a 'practical experience' nature, since this is likely to
  2325. be of the most use to the many people who are involved in cluster computing,
  2326. and will also be complimentary to the many conferences that stress more the
  2327. academic side of computing and computer/computational science research.
  2328.  
  2329. The tentative outline schedule for the workshop for Tuesday through Thursday
  2330. is included below. We will adjust it depending upon the number of
  2331. contributed papers.
  2332.  
  2333. NEW FOR THIS YEAR will be a special tutorial/vendor day, Monday, December 6.
  2334. The tentative program for that day is attached below. There will be no extra
  2335. charge for registered workshop attendees for the tutorial/vendor day.
  2336.  
  2337. Please register for the workshop using the form attached below. We encourage
  2338. as many attendees as possible to plan to make a presentation at the workshop.
  2339. We do ask that speakers plan to address topics within the scope outlined
  2340. above. Please send us a short abstract describing your talk, so we can plan an
  2341. appropriate place in the schedule. An announcement of the schedule of
  2342. speakers will be distributed as soon as possible. Within the limits of
  2343. available time, we would like to accommodate as many speakers as practicable.
  2344. PLEASE SUBMIT ABSTRACTS BY MONDAY, NOVEMBER 1, 1993.
  2345.  
  2346. The 'proceedings' of the workshop will be published via anonymous ftp. We will
  2347. request each speaker to send us an appropriate electronic version of his
  2348. talk (ascii, postscript, tex, latex, troff, etc.). These will then be placed
  2349. on the machine ftp.scri.fsu.edu for further distribution. The proceedings of
  2350. the 1991 and 1992 meetings are already on the machine.
  2351.  
  2352. Any questions or requests can be sent via email to 
  2353. cluster-workshop@scri.fsu.edu or to one of the organizers. SCRI can be
  2354. reached by phone at (904)-644-1010.
  2355.  
  2356. ==============================================================================
  2357.  
  2358.                          OUTLINE SCHEDULE
  2359.  
  2360. Monday, December 6
  2361.  8:00 am - 10:00 pm  Tutorial/Vendor Program - Conference Center
  2362.      (see detailed schedule below)
  2363.  6:00 - 8:00 pm Registration and Reception - Radisson Hotel
  2364.  
  2365. Tuesday, December 7
  2366.  
  2367.  7:30 -  8:30   Continental Breakfast and Registration - Conference Center
  2368.  
  2369.  8:30 -  9:15   Invited Speaker Number 1
  2370.  9:15 - 10:00   Invited Speaker Number 2
  2371.  
  2372. 10:00 - 10:30   Break
  2373.  
  2374. 10:30 - 12:00   Session 1
  2375. 10:30 - 12:00   Session 2
  2376.  
  2377. 12:00 -  1:00   Lunch
  2378.  
  2379.  1:00 -  3:00   Plenary Session
  2380.  
  2381.  3:00 -  3:30   Break
  2382.  
  2383.  3:30 -  5:30   Session 3
  2384.  3:30 -  5:30   Session 4
  2385.  
  2386.  6:30 - 10:00   Hosted Reception at SCRI
  2387.  
  2388.  6:30 -  8:00   Demos at SCRI
  2389.  
  2390.  8:00 -  9:30   Moderated Session
  2391.  
  2392. Wednesday, December 8
  2393.  
  2394.  7:30 -  8:30   Continental Breakfast and Registration - Conference Center
  2395.  
  2396.  8:30 -  9:15   Invited Spekaer Number 3
  2397.  9:15 - 10:00   Invited Speaker Number 4
  2398.  
  2399. 10:00 - 10:30   Break
  2400.  
  2401. 10:30 - 12:00   Session 5
  2402. 10:30 - 12:00   Session 6
  2403.  
  2404. 12:00 -  1:00   Lunch
  2405.  
  2406.  1:00 -  3:00   Session 7
  2407.  1:00 -  3:00   Session 8
  2408.  
  2409.  3:00 -  3:30   Break
  2410.  
  2411.  3:30 -  6:00   Session 9
  2412.  3:30 -  6:00   Session 10
  2413.  
  2414.  6:30 - 10:00   Hosted Reception at SCRI
  2415.  
  2416.  6:30 -  8:00   Demos at SCRI
  2417.  
  2418.  8:00 -  9:30   Moderated Session
  2419.  
  2420.  
  2421. Thursday, December 9
  2422.  
  2423.  7:30 -  8:30   Continental Breakfast - Conference Center
  2424.  
  2425.  8:30 - 10:00   Session 11
  2426.  8:30 - 10:00   Session 12
  2427.  
  2428. 10:00 - 10:30   Break
  2429.  
  2430. 10:30 - 12:00   Session 13
  2431. 10:30 - 12:00   Session 14
  2432.  
  2433. 12:00           Workshop Ends
  2434.  
  2435. ==============================================================================
  2436.  
  2437.                           Cluster Workshop 93
  2438.                           Tutorial/Vendor Day
  2439.                          FSU Conference Center
  2440.                         Monday, December 6, 1993
  2441.  
  2442.    For information contact Louis Turcotte (turcotte@bulldog.wes.army.mil)
  2443.  
  2444. Sponsors:  Hewlett-Packard (confirmed)
  2445.            others          (invited)
  2446.  
  2447.  7:45 -  8:00  Gather (Refreshments)
  2448.  
  2449.  8:00 -  8:30  Welcome/Intro/Overview of day
  2450.              o Dennis Duke (SCRI)                (Confirmed)
  2451.                  o Louis Turcotte (MSU/ERC)            (Confirmed)
  2452.  
  2453.  8:30 -  9:30  Overview of Batch Environments (Tutorial)
  2454.          o Michael Nelson (NASA Langley Research Center)(Confirmed)
  2455.  
  2456.  9:30 - 10:00  Break (Refreshments)
  2457.  
  2458. 10:00 - 12:00  Batch product presentations
  2459.                  o Condor: Miron Livny (UofWisc/Madison)    (Confirmed)
  2460.                  o DQS: Dennis Duke (SCRI)            (Confirmed)
  2461.                  o LoadLeveler: (IBM)                (Confirmed)
  2462.                  o LSF: Songnian Zhou (Platform Computing)    (Confirmed)
  2463.                  o NQS: (Sterling Software)            (Invited)
  2464.                  o TaskBroker: (HP)                (Confirmed)
  2465.  
  2466. 12:00 -  1:00  Lunch (Box)
  2467.  
  2468.  1:00 -  3:00  Overview of Parallel Environments (Tutorial)
  2469.                  o Sudy Bharadwaj (SCA)                (Confirmed)
  2470.                  o Tim Mattson (Intel)                (Confirmed)
  2471.                  o Doug Elias (Cornell Theory Center)        (Confirmed)
  2472.  
  2473.  3:00 -  3:30  Break (Refreshments)
  2474.  
  2475.  3:30 -  5:30  Parallel product presentations 
  2476.                  o Linda: (SCA)                    (Confirmed)
  2477.                  o PAMS: Wayne Karpoff 
  2478.            (Myrias Computer Technologies)        (Confirmed)
  2479.                  o p4: Ewing Lusk                 (Confirmed)
  2480.            (Argonne National Laboratory)
  2481.                  o Express: Adam Kolawa (Parasoft)        (Confirmed)
  2482.                  o PVM: Vaidy Sunderam (Emory University)    (Confirmed)
  2483.                  o xHPF: Bob Enk (Applied Parallel Research)    (Confirmed)
  2484.  
  2485.  7:00 - 10:00  Hardware vendor presentations and refreshments
  2486.                  o Convex: Brian Allison            (Confirmed)
  2487.                  o DEC:                      (Confirmed)
  2488.                  o HP: Mark Pacelle                (Confirmed)
  2489.                  o IBM:                      (Confirmed)
  2490.                  o SGI:                      (Invited)
  2491.                  o SUN:                      (Invited)
  2492.  
  2493. ===============================================================================
  2494.  
  2495. REGISTRATION AND HOTEL INFORMATION
  2496.  
  2497. WORKSHOP ON RISC CLUSTER COMPUTING
  2498. December 7-9, 1993
  2499.  
  2500. PLEASE TYPE OR PRINT                                                 
  2501.  
  2502. Name _____________________________________
  2503.  
  2504. Social Security Number ___________________
  2505. (your SSN is optional, but without it any request for a registration refund
  2506.  will be delayed)
  2507.  
  2508. Company __________________________________                           
  2509.  
  2510. Address/Mailstop __________________________________________________  
  2511.  
  2512. City/State/Zip/Country ____________________________________________  
  2513.  
  2514. Phone (___)______________________
  2515.  
  2516. Email address _______________________________________  
  2517.  
  2518. Workshop Program Number:  1902694
  2519.  
  2520. The registration fee for the workshop is $145, and includes three
  2521. continental breakfasts, Tuesday and Wednesday lunches, morning and afternoon 
  2522. break refreshments, and the food and drink for the evening sessions. There
  2523. is no extra charge for the Monday tutorial/vendor day, but attendees for
  2524. that day must be registered for the whole workshop.
  2525.  
  2526. _____ Check here if you will attend the Monday tutorials.
  2527.  
  2528. If you want to pay by check, please print out and fill in the above 
  2529. registration form, including especially the Workshop Program Number, and
  2530. return the registration form and (payable to FSU) fee to:
  2531.  
  2532. Center for Professional Development and Public Service
  2533. Conference Registrar
  2534. Florida State University
  2535. Tallahassee, Florida 32306-2027
  2536.  
  2537. If you want to register by credit card, you may register by email by sending
  2538. back an edited form of the above registration information, as well as the
  2539. following credit card information:
  2540.  
  2541. Credit Card Name (Mastercard or Visa ONLY)_____________________________
  2542.  
  2543. Credit Card Number ___________________________
  2544.  
  2545. Name (as it appears on card) __________________________________
  2546.  
  2547. Expiration Date of Card _____________________
  2548.  
  2549. There is an additional 2% charge by the University for credit card
  2550. registrations (bringing the required total to $148).
  2551.  
  2552. Email registrations, and all other inquiries about the workshop, may be
  2553. sent to:
  2554. email: cluster-workshop@scri.fsu.edu, or
  2555. fax:   (904)-644-0098, attention of Pat Meredith
  2556.  
  2557.  
  2558. Hotel Information:
  2559.  
  2560. The workshop hotel is the Radisson, which is within walking distance of
  2561. the conference center and the FSU campus. Rooms are $60 per night,
  2562. single or double, and reservations should be made by November 10. Be sure to
  2563. mention Cluster Workshop '93 to get the special rate.
  2564.  
  2565. Radisson Hotel
  2566. 415 North Monroe Street
  2567. Tallahassee, FL 32301 
  2568. Phone and Fax: (904) 224-6000
  2569.  
  2570. ==========================================================================
  2571. Dennis Duke                    phone: (904) 644-0175
  2572. Supercomputer Computations Research Institute    fax:   (904) 644-0098
  2573. Florida State University, B-186            email: dduke@scri.fsu.edu
  2574. Tallahassee, Florida 32306-4053
  2575.  
  2576. Approved: parallel@hubcap.clemson.edu
  2577. Follow-up: comp.parallel
  2578. Path: bounce-back
  2579. Newsgroups: comp.parallel
  2580. From: jacobj@research.CS.ORST.EDU (Joseph Jacob)
  2581. Subject: FAT  TREES.
  2582. Message-ID: <28q0omINN2r3@flop.ENGR.ORST.EDU>
  2583. Article-I.D.: flop.28q0omINN2r3
  2584. Posted: Mon Oct  4 13:23:50 1993
  2585. Organization: Computer Science Department, Oregon State University
  2586.  
  2587. NNTP-Posting-Host: ruby.cs.orst.edu
  2588.  
  2589.  
  2590. Hi,
  2591.  
  2592.  Do fat trees and hypertrees have the same network topology . If there is a subtle
  2593.  difference can someone point out the difference to me ?. If  both mean the
  2594.  same thing why the necessity for two names ? . I happened to read the paper
  2595.  by Charles Leiserson  ( 'xcuse spelling ) , the man behind fat trees . He makes
  2596.  no reference to hypertrees .... .
  2597.  
  2598. Thanx .
  2599.  
  2600. -JJ.
  2601.  
  2602. jacobj@research.cs.orst.edu .
  2603.  
  2604. Approved: parallel@hubcap.clemson.edu
  2605. Follow-up: comp.parallel
  2606. Path: bounce-back
  2607. Newsgroups: comp.parallel
  2608. From: gornish@sp1.csrd.uiuc.edu (Edward H. Gornish)
  2609. Subject: NAS Parallel Benchmarks
  2610. Message-ID: <GORNISH.93Oct4162955@sp1.csrd.uiuc.edu>
  2611. Organization: Center for Supercomputing R&D
  2612.  
  2613. About a month ago, someone posted the following information regarding
  2614. how to acquire the NAS Parallel Benchmarks:
  2615.  
  2616. > Questions regarding *serial* versions of the source code go to
  2617. > bm-codes@nas.nasa.gov.
  2618.  
  2619. > Questions regarding *parallel* versions of the source code go to Eric
  2620. > Barszcz, barszcz@nas.nasa.gov.
  2621.  
  2622. Regarding the serial versions, I sent email to the above *serial* address, and
  2623. I have received no reply.  It's been about one month.
  2624.  
  2625. Regarding the parallel versions, I sent email to the above *parallel*
  2626. address, and I was sent a form to fill out.  I filled out and returned
  2627. the form.  I received no further reply.  Again, It's been about one
  2628. month.
  2629.  
  2630. So does anyone know of another way of obtaining these codes?  How
  2631. large are they?  Can they be sent via email?  Is there a site from
  2632. which I can ftp them?
  2633.  
  2634. thanks
  2635.  
  2636. --
  2637. Eddie Gornish
  2638. University of Illinois - Center for Supercomputing Research & Development
  2639.  
  2640. gornish@csrd.uiuc.edu
  2641.  
  2642. Approved: parallel@hubcap.clemson.edu
  2643. Follow-up: comp.parallel
  2644. Path: bounce-back
  2645. Newsgroups: comp.parallel
  2646. From: liu@issi.com (Guizhong Liu)
  2647. Subject: MPP maker companies
  2648. Organization: International Software Systems, Inc. ISSI
  2649. Reply-To: liu@issi.com
  2650.  
  2651. Dear Netters:
  2652. I want to contact the companies making MPP supercomputers to get some information. If you know any of them, address, email address or phone numbers, please send reply 
  2653. to : liu@issi.com. 
  2654. Thanks in advance.
  2655.  
  2656. G. Liu
  2657.  
  2658.  
  2659.  
  2660. Approved: parallel@hubcap.clemson.edu
  2661. Follow-up: comp.parallel
  2662. Path: bounce-back
  2663. Newsgroups: comp.parallel
  2664. From: bianches@hp1.sm.dsi.unimi.it (pietro bianchessi)
  2665. Subject: Help: MAX-FLOW & g-bipartite subgraph
  2666. Organization: Computer Science Dep. - Milan University
  2667. Summary: Help: MAX-FLOW & g-bipartite subgraph
  2668. Keywords: MAX-FLOW
  2669.  
  2670.  
  2671. Hi,
  2672.     I need an help about these two questions:
  2673.  
  2674.     -Is there a parallel algorithm to find the
  2675.      maximum generalized bipartite subgraph of a
  2676.      graph G=<V,E>? 
  2677.  
  2678.     -Which is the best parallel algorithm to calculate
  2679.      the maximum flow?
  2680.  
  2681.                 Pietro Bianchessi
  2682.                 Dept of CS, Milan, Italy
  2683.                 bianches@ghost.dsi.unimi.it
  2684.  
  2685. P.S.
  2686. All the answers, in particular referred either to the EREW PRAM 
  2687. model or to the CM, are well accepted. Thank-you.
  2688.  
  2689. Approved: parallel@hubcap.clemson.edu
  2690. Follow-up: comp.parallel
  2691. Path: bounce-back
  2692. Organization: Valencia University (Universitat de Valencia) SPAIN
  2693. From: Rogelio Montanana (MONTANAN at EVALUN11) <MONTANAN%EVALUN11.BITNET@FRMOP11.CNUSC.FR>
  2694. Newsgroups: comp.lang.fortran,comp.parallel,comp.parallel.pvm,comp.sys.super
  2695. Subject: SHARE Europe AM93 HPC Day Program
  2696.  
  2697.  
  2698. Attached please find the titles, speakers and abstracts of the talks
  2699. that will take place during the High Performance Computing Day, part of
  2700. the SHARE Europe Anniversary meeting, to be held in The Hague, The
  2701. Netherlands, on Wednesday October 27, 1993.
  2702.  
  2703. There is a special one-day fee for those only interested in the HPC Day.
  2704.  
  2705. If you are interested in attending, please contact SHARE Europe HQ
  2706. (48, route des Acacias, CH 1227, Carouge, Switzerland, Phone
  2707. +41 22 3003775, Fax +41 22 3001119).
  2708.  
  2709. ........................................................................
  2710.  
  2711. Session 3.1H  Time: 8:45-9:45
  2712.  
  2713. Title: An overview of HPC-systems
  2714.  
  2715. Speaker: Ad Emmen (SARA, Amsterdam)
  2716.  
  2717. Abstract:
  2718.  
  2719.   There are many different types of  architectures available when it
  2720.   comes to high-performance computing, ranging from traditional
  2721.   parallel vectorcomputers to message-passing systems with thousands
  2722.   of processors. Furthermore, people are clustering together powerfull
  2723.   workstations into one parallel system to get hihjer performance.
  2724.  
  2725.   The lecture will give an overview of the main architectures employed,
  2726.   try the classify the available (commercial) systems and comment on the
  2727.   worldwide distribution.
  2728.  
  2729. CV:
  2730.  
  2731.   Ad Emmen is Manager User support at SARA, the Dutch national
  2732.   supercomputer center. He is involved in high-performance computing
  2733.   since 1983 and is editor of several journals in the field, including
  2734.   "Supercomputer" and "Supercomputer - European Watch".
  2735.  
  2736. ........................................................................
  2737.  
  2738. Session 3.2H  Time: 10:15-11:10
  2739.  
  2740. Title: SP1: The first benchmarks
  2741.  
  2742. Speaker: Joanne Martin (IBM, Kingston)
  2743.  
  2744. Abstract:
  2745.  
  2746.   The 9076 SP1 is IBM's first offering in the Scalable POWERparallel
  2747.   Series.  Based on RISC System/6000 processors, the SP1 is comprised
  2748.   of 8 to 64 processors and has a peak system performance of 1 to 8
  2749.   GFLOPS.
  2750.  
  2751.   In this talk, we will discuss the effective performance of the SP1
  2752.   based on a series of benchmarks, which includes synthetic routines to
  2753.   measure specific system components, computational kernels that
  2754.   demonstrates performance on commonly used routines, well known
  2755.   benchmarks for which performance data is expected in the
  2756.   supercomputing community (e.g. TPP, SPEC/Perfect), and full
  2757.   applications and production use.
  2758.  
  2759. CV:
  2760.  
  2761.   Joanne L. Martin, Ph.D. is a Senior Technical Staff Member and Manager,
  2762.   of Applications Technology and High-Performance Studies.
  2763.  
  2764.   Joanne joined IBM as a Research Staff Member at the T.J. Watson
  2765.   Research Center in November, 1984. She had received her Ph.D. in
  2766.   mathematics from The Johns Hopkins University in 1981 and conducted
  2767.   research in performance evaluation for supercomputers at the Los Alamos
  2768.   National Laboratory prior to joining IBM.
  2769.  
  2770.   In May, 1991, Joanne was appointed manager of her present department,
  2771.   and is responsible for performance analysis and modeling for IBM's
  2772.   Scalable Parallel systems, within the newly created POWER Parallel
  2773.   business unit. In January, 1993 Joanne was appointed a member of IBM's
  2774.   Senior Technical Staff.
  2775.  
  2776.   Joanne has maintained active participation in the external scientific
  2777.   community, as founding editor-in-chief of the International Journal of
  2778.   Supercomputer Applications, serving as the General Chair of
  2779.   Supercomputing 90, being sought as an advisor to the Dept. of Energy
  2780.   and the National Science Foundation and she was named to Who's Who in
  2781.   Science and Engineering for 1992-1993.
  2782.  
  2783. ........................................................................
  2784.  
  2785. Session 3.3H  Time: 11:15-12:10
  2786.  
  2787. Title: Discussion of customer requirements and scalable parallel future.
  2788.  
  2789. Speaker: Joanne Martin (IBM, Kingston)
  2790.  
  2791. Abstract:
  2792.  
  2793.   During this session Dr Joanne Martin address the requirements provided
  2794.   by Share Europe during Share SM 93.
  2795.  
  2796.   She will also discuss the possible evolution of the Scalable Parallel
  2797.   Systems.
  2798.  
  2799. ........................................................................
  2800.  
  2801. Session 3.4H  Time: 14:00-14:45
  2802.  
  2803. Title: Overview of PVM
  2804.  
  2805. Speaker: John Zollweg (Cornell Theory Center)
  2806.  
  2807. Abstract:
  2808.  
  2809.   Parallel Virtual Machine (PVM) has become a very popular message-
  2810.   passing environment on many systems of workstations with TCP/IP
  2811.   communication. The standard PVM package will be briefly described.
  2812.   Some enhancements to this system have been made by IBM that allow one
  2813.   to run PVM over a point-to-point switch with low message latency.
  2814.   Results will be presented for some scientific applications that require
  2815.   frequent communication, showing the effects of the enhanced PVM.
  2816.  
  2817. CV:
  2818.  
  2819.   John Zollweg is Project Manager for the Strategic Applications Program
  2820.   in Cornell Theory Center. He has had extensive experience with parallel
  2821.   processing, including PVM, both as a researcher who used the Theory
  2822.   Center's platforms for many years (in chemical engineering), and now as
  2823.   a Theory Center staff member coordinating early use by researchers of
  2824.   the strategic platforms. John is now involved in a Joint Verification
  2825.   Study with IBM.  He has already ported his own research code to the
  2826.   SP1, and is co-chairing the SP1 Early User Workshop in June.
  2827.  
  2828. ........................................................................
  2829.  
  2830. Session 3.5H  Time: 14:50-15:35
  2831.  
  2832. Title:  High Performance Fortran
  2833.  
  2834. Speaker: Clemens-August Thole (GMD-I1T)
  2835.  
  2836. Abstract:
  2837.  
  2838.   The architecture of high performance computers gets more complex. Large
  2839.   numbers of parallel nodes and non-uniform memory access times are
  2840.   challenges for compilers, which make efficient code generation for
  2841.   sequential Fortran 90 programs very difficult. In  order to generate
  2842.   better code compilers need additional information like the
  2843.   specification of
  2844.  
  2845.     - opportunities for parallel execution
  2846.     - distribution of data objects onto the memories of the nodes
  2847.  
  2848.   The High Performance Fortran Forum (HPFF) was founded as a coalition of
  2849.   about 40 industrial and academic groups (including most vendors of
  2850.   parallel computers), who had several meetings since March 1992 in order
  2851.   to define language extensions to Fortran 90 (High Performance Fortran).
  2852.   A final document was accepted in March 1993.
  2853.  
  2854.   HPF supports especially the mapping of data parallel program on
  2855.   parallel computers. Compiler directives specify the distribution of
  2856.   data objects. Some language extensions to Fortran 90 enhance the
  2857.   possibilities to write Fortran 90 programs in such a way that they can
  2858.   be executed in parallel.
  2859.  
  2860.   The presentation will give an overview about HPF and its features and
  2861.   will inform about the status of the initiative.
  2862.  
  2863. CV:
  2864.  
  2865.   Clemens-August Thole is member of the HPFF (High Performance Fortran
  2866.   Forum), that developed High Performance Fortran. He organized a group
  2867.   in Europe complementary to the HPFF in the US, and was instrumental in
  2868.   making HPF an international effort.
  2869.  
  2870. ........................................................................
  2871.  
  2872. Session 3.6H  Time: 16:00-16:45
  2873.  
  2874. Title: MCNP4, a Parallel Monte Carlo Implementation on a Workstation Network
  2875.  
  2876. Speaker: Frank Schmitz (Kernforschungzentrum Karlsruhe)
  2877.  
  2878. Abstract:
  2879.  
  2880.   The Monte Carlo code MCNP4 has been implemented on a workstation
  2881.   network to allow parallel computing of Monte Carlo transport processes.
  2882.   This has been achieved by making use of the communication tool PVM
  2883.   (Parallel Virtual Machine) and introducing some changes in the MCNP4
  2884.   code. The PVM daemons and user libraries have been installed on
  2885.   different workstations to allow working on the same platform.
  2886.   Essential features of PVM and the structure of the parallelized MCNP4
  2887.   version are discussed in this paper. Experiences are described and
  2888.   problems are explained and solved with the extended version of MCNP.
  2889.   The efficiency of the parallelized MCNP4 is assessed for two realistic
  2890.   sample problems from the field of fusion neutronics. Compared with the
  2891.   fastest workstation in the network, a speed-up factor near five has
  2892.   been obtained by using a network of ten workstations, different in
  2893.   architecture and performance.
  2894.  
  2895. CV:
  2896.  
  2897.   Frank Schmitz has been working since seven years in the environment of
  2898.   supercomputing and is now looking for tools to use the workstations in
  2899.   the Nuclear Research Center. Vectorizing is done for many problems, now
  2900.   parallelizing will be the next job.
  2901.  
  2902. ........................................................................
  2903.  
  2904. Session 3.7H  Time: 16:50-17:35
  2905.  
  2906. Title: SP1 compared to a workstation cluster: a user experience
  2907.  
  2908. Speaker: John Zollweg (Cornell Theory Center)
  2909.  
  2910. Abstract: Not available
  2911.  
  2912. CV:
  2913.  
  2914.   John Zollweg is Project Manager for the Strategic Applications Program
  2915.   in Cornell Theory Center. He has had extensive experience with parallel
  2916.   processing, including PVM, both as a researcher who used the Theory
  2917.   Center's platforms for many years (in chemical engineering), and now as
  2918.   a Theory Center staff member coordinating early use by researchers of
  2919.   the strategic platforms. John is now involved in a Joint Verification
  2920.   Study with IBM.  He has already ported his own research code to the
  2921.   SP1, and is co-chairing the SP1 Early User Workshop in June.
  2922.  
  2923. ........................................................................
  2924.  
  2925. Other talks related to HPC during SHARE Europe AM93:
  2926.  
  2927.    Session 1.3C  Date: October 25  Time: 11:15-12:00
  2928.    Title: Highly Parallel DB Computing
  2929.    Speaker:
  2930.  
  2931.    Session 2.1D  Date: October 26  Time: 8:45-9:45
  2932.    Title: Is a parallel System/390 in Your Future?
  2933.    Speaker: Scott Loveland (IBM Poughkeepsie, USA)
  2934.  
  2935.    Session 2.2D  Date: October 26  Time: 10:15-11:10
  2936.    Title: Is a parallel System/390 in Your Future? (Session Continued)
  2937.    Speaker: Scott Loveland (IBM Poughkeepsie, USA)
  2938.  
  2939.    Session 2.3D  Date: October 26  Time: 11:15-12:10
  2940.    Title: Parallel Batch
  2941.    Speaker: Tom Monza (IBM Poughkeepsie, USA)
  2942.  
  2943.    Session 2.EI  Date: October 26  Time: 11:15-12:00
  2944.    Title: Inside the Human Brain with Parallel Processing
  2945.    Speaker: Dr. James A. Browm (IBM Santa Teresa, USA)
  2946.  
  2947.  
  2948.  
  2949.  
  2950.  
  2951. Approved: parallel@hubcap.clemson.edu
  2952. Follow-up: comp.parallel
  2953. Path: bounce-back
  2954. Newsgroups: comp.parallel
  2955. Date: Tue, 5 Oct 93 11:37:27 EDT
  2956. From: "Duncan A. Buell" <duncan@super.ORG>
  2957. Subject: CALL FOR PAPERS: IEEE Workshop on FPGAs for Custom Computing Machines
  2958.  
  2959. CALL FOR PAPERS: IEEE Workshop on FPGAs for Custom Computing Machines
  2960.  
  2961.    April 10-13, 1994    Sheraton Inn at Napa Valley, Napa, California
  2962.  
  2963. PURPOSE:
  2964. To bring together researchers to present recent work in the use of
  2965. Field Programmable Gate Arrays or other means for obtaining
  2966. reconfigurable computing elements.  This workshop will focus primarily
  2967. on the current opportunities and problems in this new and evolving
  2968. technology for computing.
  2969.  
  2970. A proceedings will be published by the IEEE Computer Society.
  2971.  
  2972.       PAPERS (10 pages maximum) SHOULD BE SUBMITTED BEFORE
  2973.                JANUARY 7, 1994 TO DUNCAN BUELL.
  2974.  
  2975. This workshop is sponsored by the IEEE Computer Society and the TC
  2976. on Computer Architecture.
  2977.  
  2978. CoChairs:    Ken Pocek (west coast)     Duncan Buell (east coast)
  2979.              Intel                      Supercomputing Research Center
  2980.              Mailstop RN6-18            17100 Science Drive
  2981.              2200 Mission College Blvd. Bowie, Maryland 20715
  2982.              Santa Clara, CA  95052     301-805-7372                      
  2983.              408-765-6705               301-805-7602 (fax)                      
  2984.              408-765-5165 (fax)         duncan@super.org            
  2985.              kpocek@sc.intel.com
  2986.  
  2987. ORGANIZING COMMITTEE:
  2988. Jeffrey Arnold, SRC         Wayne Luk, Oxford         
  2989. Peter Athanas, VPI          Jonathan Rose, U Toronto  
  2990. Pak Chan, UC Santa Cruz     Herve Touati, DEC Paris Research 
  2991. Tom Kean, Algotronix     
  2992.  
  2993. SOLICITATION::
  2994. Papers are solicited on all aspects of the use or applications of
  2995. FPGAs or other means for obtaining reconfigurable computing elements
  2996. in attached or special purpose processors or coprocessors, especially
  2997. including but not limited to
  2998. *** coprocessor boards for augmenting the instruction set of
  2999.     general purpose computers;
  3000. *** attached processors for specific purposes (e.g. signal
  3001.     processing) or general purposes;
  3002. *** languages, compilation techniques, tools, and environments
  3003.     for programming FPGA-based computers;
  3004. *** application domains suitable for FPGA-based computers;
  3005. *** architecture emulation using FPGA-based computers.
  3006.  
  3007. A special session will be organized in which vendors of hardware
  3008. and software can present new or upcoming products involving FPGAs
  3009. for computing.
  3010.  
  3011. Individuals wishing to be put on an email list for further information
  3012. about this workshop should send email with name, regular mail address,
  3013. and email address to Ken Pocek.  Questions regarding submission of
  3014. papers should be directed to Duncan Buell.
  3015.  
  3016. The proceedings of FCCM 93 are available from the IEEE Computer
  3017. Society, Computer Society Press Order Number 3890-02,
  3018. ISBN 0-8186-3890-7.  A limited number of copies will also be
  3019. available for sale at FCCM 94.
  3020.  
  3021.  
  3022. Approved: parallel@hubcap.clemson.edu
  3023. Follow-up: comp.parallel
  3024. Path: bounce-back
  3025. Newsgroups: comp.parallel
  3026. From: ikal@cperi.forth.gr (Hlias Kalaitzis)
  3027. Subject: need extra software for 3LC on T-Node machines
  3028. Organization: CPERI, Thessaloniki, Hellas
  3029. Date: Tue, 5 Oct 1993 18:19:55 GMT
  3030.  
  3031.  For people who work on Telmat T-node machines:To make use of the 3LC compiler
  3032. on a T-Node someone must have the special software for the hardwiring of the
  3033. machine (T_Config etc.).I would be thankful if someone could show me a way to 
  3034. find this stuff.(It's the same for all the 3L languages actually). 
  3035.  
  3036. Approved: parallel@hubcap.clemson.edu
  3037. Follow-up: comp.parallel
  3038. Path: bounce-back
  3039. Newsgroups: comp.parallel
  3040. From: crispin@csd.uwo.ca (Crispin Cowan)
  3041. Subject: Terminology question
  3042. Organization: Department of Computer Science, University of Western Ontario, London
  3043. Date: Tue, 5 Oct 1993 19:24:10 GMT
  3044. Message-ID: <1993Oct5.192410.1073@julian.uwo.ca>
  3045. Sender: news@julian.uwo.ca (USENET News System)
  3046.  
  3047. I have a terminology question for the masses.  Does the term
  3048. "distributed memory" imply memory that is not shared, i.e. can
  3049. "distribued memory" and "shared memory" be used as opposing concepts?
  3050. I had thought I saw the literature moving towards this consensus, but
  3051. I've recently seen a workshop section labelled "distributed memory"
  3052. that seeks to include both shared and non-shared memory.
  3053.  
  3054. Thanks,
  3055.     Crispin
  3056. -----
  3057. Crispin Cowan, CS grad student, University of Western Ontario
  3058. Phyz-mail:  Middlesex College, MC28-C, London, Ontario, N6A 5B7
  3059. E-mail:     crispin@csd.uwo.ca          Voice:  519-661-3342
  3060. "If you see a skier, turn.  Trees too."  Burton rendition of the
  3061. Skier's^H^H^H^H^H^H^H Snowboarder's Responsibility Code
  3062.  
  3063. Approved: parallel@hubcap.clemson.edu
  3064. Follow-up: comp.parallel
  3065. Path: bounce-back
  3066. Newsgroups: comp.object,comp.parallel
  3067. From: Jean.Marc.Andreoli@xerox.fr (Jean Marc Andreoli)
  3068. Subject: CORBA experience
  3069. Organization: Rank Xerox Research Centre
  3070.  
  3071. Hi,
  3072.  
  3073. I am looking for an experience report of a software development using
  3074. CORBA, or for the code of a complete (toy) application based on
  3075. CORBA. Any pointer or information would be welcome.
  3076.  
  3077. Cheers,
  3078.  
  3079.     Jean-Marc
  3080.  
  3081. Jean-Marc Andreoli         | Tel:  +33 76 61 50 80 (direct)
  3082. Rank Xerox Research Center |       +33 76 61 50 50 (switchboard)
  3083. 38240 Meylan (France)      | E-mail:  Jean.Marc.Andreoli@xerox.fr
  3084.  
  3085. Approved: parallel@hubcap.clemson.edu
  3086. Follow-up: comp.parallel
  3087. Path: bounce-back
  3088. Newsgroups: comp.parallel
  3089. From: shamik@cs.umd.edu (Shamik Sharma)
  3090. Subject: Re:Irregular Data Access Pattern Loops on Parallel Machines
  3091. Organization: U of Maryland, Dept. of Computer Science, Coll. Pk., MD 20742
  3092.  
  3093. >Hi,
  3094. >I'm looking for references to articles dealing with the problem of
  3095. >compiling loops with irregular data access patterns on parallel
  3096. >computers for minimum communication/maximum locality.
  3097. >Mounir Hahad                                e-Mail : hahad@irisa.fr
  3098.  
  3099.  
  3100.   Our group at Maryland has been developing runtime toolkits
  3101.   and compiler techniques to handle irregular data access patterns.
  3102.   Related papers can be found at the anonymous ftp site :
  3103.   hyena.cs.umd.edu   under the directory   pub/papers
  3104.  
  3105.   -shamik
  3106.  
  3107. Approved: parallel@hubcap.clemson.edu
  3108. Follow-up: comp.parallel
  3109. Path: bounce-back
  3110. Newsgroups: comp.parallel
  3111. From: johnp%amber.unm.edu@lynx.unm.edu (John Prentice)
  3112. Subject: Fortran 90 performance benchmarks available
  3113. Organization: Dept. of Math & Stat, University of New Mexico, Albuquerque
  3114.  
  3115. Announcing the availability of the Quetzal Fortran 90 Benchmark Suite
  3116. ---------------------------------------------------------------------
  3117.  
  3118.  
  3119. The latest version of the Quetzal Computational Associates Fortran 90
  3120. compiler benchmark results are now available from anonymous ftp at
  3121. unmfys.unm.edu in the directory pub/quetzal.  The benchmark codes
  3122. themselves are available as well and so is a review of the VAST-90
  3123. utility for converting Fortran 77 codes to Fortran 90.  Please note
  3124. that this ftp site is different from the one used in the past.
  3125.  
  3126. This version of the benchmark suite differs in many significant ways 
  3127. from the original one that was made available earlier this year.  
  3128. In particular, some codes have been dropped from the suite and 
  3129. several others have been added.  The benchmark results have been
  3130. updated to reflect the performance of newer releases of the compilers
  3131. on the codes in the new benchmark suite.
  3132.  
  3133. Please contact me if you have any problems with the anonymous ftp
  3134. directory or other questions.
  3135.  
  3136. John
  3137. -- 
  3138. Dr. John K. Prentice                      
  3139. Quetzal Computational Associates    
  3140. 3200 Carlisle N.E., Albuquerque, NM   87110-1664  USA
  3141. Phone: 505-889-4543  Fax: 505-889-4598  E-mail: quetzal@aip.org
  3142.  
  3143. Approved: parallel@hubcap.clemson.edu
  3144. Follow-up: comp.parallel
  3145. Path: bounce-back
  3146. From: gustav@arp.anu.edu.au (Zdzislaw Meglicki)
  3147. Newsgroups: comp.parallel,comp.parallel.pvm,comp.sys.transputer
  3148. Subject: Re: Particle In cell codes on parallel machines (QUERY)
  3149. Organization: Centre for Information Science Research, ANU, Canberra, Australia
  3150. Sender: gustav@arp.anu.edu.au (Zdzislaw Meglicki)
  3151. References: <1993Sep27.125715.7618@hubcap.clemson.edu>
  3152. Nntp-Posting-Host: 150.203.20.14
  3153.  
  3154. I have described how to use the Connection Machine in the context of
  3155. the particle in cell method in a talk I gave to the High Performance 
  3156. Computing Conference at the Australian National University this year. 
  3157. You will find the text of the talk in the "ez" format ("ez" is an editor 
  3158. from the CMU Andrew Toolkit) in our ftp-anonymous area on arp.anu.edu.au 
  3159. in the directory ARP/papers/particles.
  3160.  
  3161. The talk describes how you would use the "segmented scan" facility in
  3162. order to parallelise your particle operations even for very non-uniform
  3163. distributions of particles. It relies quite heavily on what is available
  3164. on the Connection Machine. Although in principle you could implement
  3165. a similar data parallel environment on top of the PVM, I don't think that
  3166. there is anything out there that would get even close to what you
  3167. have on the CM (sadly).
  3168.  
  3169. -- 
  3170.    Zdzislaw Meglicki, Zdzislaw.Meglicki@cisr.anu.edu.au,
  3171.    Automated Reasoning Program - CISR, and Plasma Theory Group - RSPhysSE,
  3172.    The Australian National University, G.P.O. Box 4, Canberra, A.C.T., 2601, 
  3173.    Australia, fax: (Australia)-6-249-0747, tel: (Australia)-6-249-0158
  3174.  
  3175. Approved: parallel@hubcap.clemson.edu
  3176. Follow-up: comp.parallel
  3177. Path: bounce-back
  3178. Newsgroups: comp.parallel
  3179. From: punisher@ccwf.cc.utexas.edu (Judge)
  3180. Subject: Paralleling on Intel
  3181. Date: 5 Oct 1993 21:46:56 -0500
  3182. Organization: The Punishment Institute
  3183.  
  3184. Hello all,
  3185.  
  3186. I am doing my senior thesis on paralleling (massively if possibly) intel
  3187. [read DOS based] processors.  
  3188.  
  3189. Any help you can give me or steer me to would be a great help!!
  3190.  
  3191. Thanks! :)
  3192.  
  3193. Kasey
  3194. Approved: parallel@hubcap.clemson.edu
  3195. Follow-up: comp.parallel
  3196. Path: bounce-back
  3197. Newsgroups: comp.parallel
  3198. From: sbs@finsun.csc.fi (Sami Saarinen)
  3199. Subject: Gustafsons speedup
  3200. Keywords: parallel, speedup
  3201. Organization: Center for Scientific Computing, Finland (CSC)
  3202.  
  3203. Sometime ago I read about Gustafson et.al. speedup definition
  3204. as opposite to Amdahl's law.
  3205.  
  3206. It was supposed to be an alternative method to define speedup
  3207. generally on mpp-systems.
  3208.  
  3209. I completely understand how it is defined, but I don't 
  3210. fully understand its use.
  3211.  
  3212. My question is: When it is allowed to use Gustafson's speedup?
  3213. Is it usable only when my problem size is increasing or can I use it
  3214. also when I get more processors, but my problem size remains 
  3215. constant?
  3216.  
  3217. Thanks for the answers in advance.
  3218.  
  3219. Sami Saarinen
  3220. CSC/Finland
  3221.  
  3222. Approved: parallel@hubcap.clemson.edu
  3223. Follow-up: comp.parallel
  3224. Path: bounce-back
  3225. Newsgroups: comp.parallel
  3226. From: buffat@europe.mecaflu.ec-lyon.fr (Buffat Marc)
  3227. Subject: [Q] PVM3 and P4 comparisons
  3228. Date: 6 Oct 1993 14:50:51 GMT
  3229. Organization: LMFA
  3230.  
  3231. Nntp-Posting-Host: europe.mecaflu.ec-lyon.fr
  3232. Keywords: PVM3 and P4
  3233.  
  3234. Does anybody have a comparsion between PVM3 and P4, specially for the
  3235. message passing protocol. I know that P4 supports the shared memory
  3236. protocol, but how the message passing implementation  of P4 compares
  3237. with the message passing of pvm.
  3238. Any comments will be appreciated.
  3239.         Marc
  3240.   
  3241. -----------------------------------------------------------------------------
  3242. Marc BUFFAT                                 ++++++++++++++++++++++++
  3243. Lab. Mecanique des fluides LMFA             |     CNRS URA 263     |
  3244. ECL, 36 av. Guy de Collongue                |     ECL Lyon         |
  3245. Ecully 69131, FRANCE                        |     UCB Lyon I       |
  3246.  
  3247. Approved: parallel@hubcap.clemson.edu
  3248. Follow-up: comp.parallel
  3249. Path: bounce-back
  3250. Newsgroups: comp.parallel
  3251. From: wuchang@adirondacks.eecs.umich.edu (Wu-chang Feng)
  3252. Subject: Host Interfaces to Communication Subsystems
  3253. Organization: University of Michigan EECS Dept., Ann Arbor, MI
  3254.  
  3255. I'm looking for references on the different structures and representations
  3256. the host must provide for a communication subsystem in both the parallel
  3257. and distributed domains.  (i.e. the different ways the host can "feed"
  3258. its subsystem)
  3259. Thanks
  3260.  
  3261. Approved: parallel@hubcap.clemson.edu
  3262. Follow-up: comp.parallel
  3263. Path: bounce-back
  3264. Newsgroups: comp.parallel,comp.parallel.pvm
  3265. From: jdelgado%chensun2m.DrillThrall@usceast.cs.scarolina.edu (J. Delgado)
  3266. Subject: Fortran parallelizer wanted
  3267. Sender: usenet@usceast.cs.scarolina.edu (USENET News System)
  3268. Reply-To: jdelgado%chensun2m.DrillThrall@usceast.cs.scarolina.edu
  3269. Organization: University of South Carolina
  3270.  
  3271. Hi there,
  3272.  
  3273. This may be a naive question, but I am new to parallel computing.
  3274. Is there a software that will transform a traditional (i.e., sequential)
  3275. FORTRAN program into a parallel program? I am interested in parallel
  3276. versions that run under PVM and/or Express.
  3277.  
  3278. I know that if I want to get the best performance I will have to write 
  3279. the code from scratch. However, I have _lots_ of "traditional" code 
  3280. and it will be painful to rewrite everything again from scratch. I just
  3281. want something that helps me get started.
  3282.  
  3283. I have heard of dependence analyzers and parallelizers. Are these
  3284. useful for what I need?
  3285.  
  3286. Any information/advice will be greatly appreciated. Please reply directly
  3287. to me; I will summarize if this is of interest. Thanks.
  3288.  
  3289. Javier Delgado
  3290. jdelgado@sun.che.scarolina.edu
  3291.  
  3292.  
  3293.  
  3294. Approved: parallel@hubcap.clemson.edu
  3295. Follow-up: comp.parallel
  3296. Path: bounce-back
  3297. Newsgroups: misc.jobs.offered,comp.parallel,comp.os.mach
  3298. From: lernst@SSD.intel.com (Linda Ernst)
  3299. Subject: OS Designers, Intel, Beaverton, Oregon, USA
  3300. Organization: Supercomputer Systems Division (SSD), Intel
  3301.  
  3302. The Supercomputing Systems Division of Intel, has positions available now
  3303. in Beaverton, Oregon for Senior Software Engineers, Operating Systems.
  3304.  
  3305. We are a leading supplier of massively parallel supercomputers, which
  3306. run a fully distributed version of OSF1/AD (Mach microkernel, Unix server)
  3307. on 1000+ nodes, producing 100s of gigaFLOPS and terabytes of data.
  3308. Not for the faint of heart :-)
  3309.  
  3310. Job descriptions are attached.
  3311.  
  3312. Please mail resumes (please ABSOLUTELY no FAXes, no phone calls, no e-mail):
  3313.  
  3314.   Linda Ernst
  3315.   c/o Intel Corporation
  3316.   Mail Stop CO1-01
  3317.   5200 N.E. Elam-Young Parkway
  3318.   Hillsboro, OR 97124-6497
  3319.  
  3320. ===============================================================================
  3321.  
  3322. Position #1: Operating System Designer, Memory Management
  3323.     
  3324. Description:
  3325.     Specify, design, prototype and implement an advanced distributed memory
  3326.     management architecture in a Mach/Unix-based operating system for
  3327.     Intel's next generation parallel supercomputer. Includes collaboration
  3328.     with with internal and academic applications researchers to provide
  3329.     high performance operating system support for new parallel programming
  3330.     models.
  3331.  
  3332. Education and Skills:
  3333.     Minimum BSCS, Masters preferred, 6 to 10 years programming experience,
  3334.     3 to 5 years operating system design and development experience.
  3335.     Solid knowledge of high performance system design, Unix internals,
  3336.     microkernel operating systems, distributed and parallel architectures.
  3337.     Multicomputer and scalable operating system experience a plus, experience
  3338.     in the areas of supercomputing a plus.  Design experience with memory
  3339.     management required.
  3340.  
  3341. ===============================================================================
  3342.  
  3343. Position #2: Operating System Designer, Message Passing
  3344.  
  3345. Description:
  3346.     Design, prototype and implement message passing-related features,
  3347.     and new message passing protocols, in a Mach/Unix-based operating
  3348.     system for Intel's next generation parallel supercomputer.
  3349.  
  3350. Education and Skills:
  3351.     Minimum BSCS, Masters preferred, 5 to 8 years programming experience,
  3352.     2 to 5 years operating system design and development experience.
  3353.     Solid knowledge of high performance system design, Unix internals,
  3354.     microkernel operating systems, distributed and parallel architectures.
  3355.     Multicomputer operating system experience a plus, experience in the
  3356.     areas of supercomputing a plus.  Experience with message passing
  3357.     highly desirable.
  3358.  
  3359.  
  3360. Approved: parallel@hubcap.clemson.edu
  3361. Follow-up: comp.parallel
  3362. Path: bounce-back
  3363. Newsgroups: comp.parallel
  3364. Date: Wed, 06 Oct 1993 19:11:16 +0000 (GMT)
  3365. From: due380@herald.usask.ca (Donald Uwemedimo Ekong)
  3366. Subject: Req. for code for simul. of stuck-at fault using C++
  3367. Organization: University of Saskatchewan
  3368.  
  3369. Hello,
  3370.  
  3371.     Please I am looking for information on how to simulate 
  3372.  
  3373.     stuck-at faults using C++ .
  3374.  
  3375.     For example, if I have    
  3376.  
  3377.     int t ;
  3378.  
  3379.     and I want the value of t to be stuck-at e.g. 4 , even if 
  3380.  
  3381.     I write the expression 
  3382.  
  3383.     t = 8 + 2 ; 
  3384.  
  3385.         How can I make t to always be 4 ? 
  3386.  
  3387.     Thanks 
  3388.  
  3389.             Donald 
  3390.  
  3391. Approved: parallel@hubcap.clemson.edu
  3392. Follow-up: comp.parallel
  3393. Path: bounce-back
  3394. Newsgroups: comp.parallel,comp.arch,comp.benchmarks
  3395. From: flynn@poly.edu (Robert Flynn)
  3396. Subject: Locate ftp site info on machines?
  3397. Reply-To: flynn@ranch.poly.edu b.shriver@computer.org 
  3398. Keywords: reports, parallel, distributed    
  3399. Organization: Polytechnic University, New York
  3400. Date: Wed, 6 Oct 1993 15:34:45 GMT
  3401.  
  3402. We would like to access, via ftp, technical reports, specifications, etc that
  3403. manufacturers of parallel and distributed systems make available regarding
  3404. their hardware and software systems.
  3405.  
  3406. The vendors that we are interested in include (but is not limited to):
  3407.  
  3408. nCube
  3409. TMC
  3410. Convex
  3411. MasPar and DEC/MasPar
  3412. Cray
  3413. NEC
  3414. Hitachi
  3415. ATT/NCR/Teradata
  3416. KSR
  3417. etc.
  3418.  
  3419. and the clustered workstation approaches. e.g.
  3420.  
  3421. IBM
  3422. Sun
  3423. HP
  3424. DEC
  3425. etc.
  3426.  
  3427. A list of ftp sites, directories, file names etc. for each manufacturer
  3428. would be appreciated. A brief abstract would also be appreciated.
  3429.  
  3430. We'll compose a table to distribute to the newsgroup.
  3431.  
  3432. We're interested in architectural specifications, processor descriptions,
  3433. systems descriptions, database management systems, transaction processing 
  3434. systems, open systems and interoperability issues, migration, client server
  3435. systems and the like on these high performance systems.
  3436.  
  3437. Thanks
  3438.  
  3439. Bob Flynn        flynn@ranch.poly.edu
  3440. Bruce Shriver    b.shriver@computer.org
  3441.  
  3442.  
  3443.  
  3444. Approved: parallel@hubcap.clemson.edu
  3445. Follow-up: comp.parallel
  3446. Path: bounce-back
  3447. Newsgroups: comp.parallel
  3448. From: mbergerm+@CS.CMU.EDU (Marcel Bergerman)
  3449. Subject: References on parallel processors
  3450. Organization: Carnegie Mellon University
  3451.  
  3452. Dear netters,
  3453.  
  3454. I would like to know of references on the better allocation of
  3455. processors for large, numerical-intensive parallel
  3456. applications.  The same sequential algorithm can have several
  3457. parallel implementations and it would be good to have some
  3458. criteria to decide which one is the best before even beginning
  3459. to program.
  3460.  
  3461. Send all answers to me and I'll summarize them to the group.
  3462.  
  3463. Thank you,
  3464.  
  3465. Marcel Bergerman
  3466. mbergerm@cs.cmu.edu
  3467. Carnegie Mellon University
  3468.  
  3469.  
  3470. p.s.: this is actually for a friend who does not have
  3471. access to this bboard. I hope this is not a FAQ or
  3472. something very dull. Thanks!
  3473.  
  3474. Approved: parallel@hubcap.clemson.edu
  3475. Follow-up: comp.parallel
  3476. Path: bounce-back
  3477. Newsgroups: comp.parallel
  3478. From: parallel@netcom.com (B. Mitchell Loebel)
  3479. Subject: The PARALLEL Processing Connection - October 1993 meeting notice
  3480. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  3481.  
  3482. [Information concerning the PARALLEL Processing Connection is available on
  3483.  parlib
  3484. ]
  3485.  
  3486. Multiprocessing With SunOS
  3487.  
  3488. On October 11th, Steve Klieman of Sun Microsystems will discuss 
  3489. the architecture and implementation of user accessible threads in 
  3490. Solaris. Following that he will describe the architecture of the fully-
  3491. preemptible, realtime, Symmetric Multiprocessing kernel that 
  3492. supports the user threads implementation. We will certainly want to 
  3493. explore how Solaris could be adapted to a workstation cluster 
  3494. implemented with the Scalable Coherent Interface. And we will be 
  3495. interested in knowing whether Solaris supports Sun's S3mp version 
  3496. of Distributed Shared Memory.
  3497.  
  3498. A discussion of member entrepreneurial projects currently underway 
  3499. will begin at 7:15PM and the main meeting will take place at 7:45 PM. 
  3500. Location is Sun Microsystems at 901 South San Antonio Road 
  3501. in Palo Alto, California. Southbound travelers exit 101 at San 
  3502. Antonio; northbound attendees also exit at San Antonio and take the 
  3503. overpass to the other side of 101. There is an $8 visitor fee for non-
  3504. members and members ($40 per year) will be admitted free.
  3505.  
  3506. Please be prompt; we expect a large attendance; don't be left out or 
  3507. left standing.
  3508.  
  3509. For further information contact:
  3510.  
  3511. -- 
  3512. B. Mitchell Loebel                                      parallel@netcom.com 
  3513. Director - Strategic Alliances and Partnering                  408 732-9869 
  3514. PARALLEL Processing Connection 
  3515.  
  3516. Approved: parallel@hubcap.clemson.edu
  3517. Follow-up: comp.parallel
  3518. Path: bounce-back
  3519. Newsgroups: comp.parallel
  3520. From: wakatani@cse.ogi.edu (Akiyoshi Wakatani)
  3521. Subject: Re: Irregular Data Access Pattern Loops on Parallel Machines
  3522. References: <93-10-031@comp.compilers>
  3523.  
  3524. >> Hi,
  3525. >> I'm looking for references to articles dealing with the problem of
  3526. >> compiling loops with irregular data access patterns on parallel
  3527. >> computers for minimum communication/maximum locality.
  3528.  
  3529. The following articles will help you.
  3530.  
  3531. @INPROCEEDINGS{koelbel.90,
  3532.     title = "Parallel Loops on Distributed Machines", 
  3533.     booktitle = "{DMCC-5}",
  3534.     year = 1990,
  3535.     author = "Charles Koelbel and Piyash Mehrotra and Joel Salts
  3536.     and Harry Berryman",
  3537. }
  3538.  
  3539. @ARTICLE{Koelbel_Mehrotra.91, 
  3540.     title = "Compiling {G}lobal {N}ame-{S}pace {P}arallel {L}oop
  3541.     for {D}istributed {E}xecution",
  3542.     journal = "IEEE trans. on Parallel and Distributed Systems", 
  3543.     volume = 2,
  3544.     number = 4,
  3545.     year = 1991,
  3546.     author = "Charles Koelbel and Piyush Mehrotra",
  3547. }    
  3548.  
  3549. @INPROCEEDINGS{Saltz.93,
  3550.     title = "Slicing Analysis and Indirect Accesses to Distributed Arrays",
  3551.     booktitle = "Sixth Annual Workshop on Languages and
  3552.     Compilers for Parallel Computing",
  3553.     year = 1993,
  3554.     author = "Raja Das and Joel Saltz and Reinhard Van Hanxleden",
  3555. }    
  3556.  
  3557. Akiyoshi Wakatani
  3558.  
  3559. Approved: parallel@hubcap.clemson.edu
  3560. Follow-up: comp.parallel
  3561. Path: bounce-back
  3562. From: John Pritchard <jdp10@columbia.edu>
  3563. Newsgroups: comp.parallel,cs.research,comp.theory,comp.research.japan
  3564. Subject: Request for info/persons : Soft Logic
  3565. Organization: Columbia University Department of Computer Science
  3566.  
  3567. Hello,
  3568.  
  3569. I am interested in persuing Soft Logic ( != fuzzy l.).  Please reply 
  3570.  
  3571. . . . directly!
  3572.  
  3573. thanks,
  3574.  
  3575. john
  3576.  
  3577. -- 
  3578.  
  3579. ugrad, dept of economics, jdp10@columbia.edu
  3580. research assistant, jdp@cs.columbia.edu
  3581. 506 W 113, 1A, NY, NY 10025; 212.663.4118
  3582.  
  3583. Approved: parallel@hubcap.clemson.edu
  3584. Follow-up: comp.parallel
  3585. Path: bounce-back
  3586. Newsgroups: comp.parallel
  3587. From: milland@iesd.auc.dk (Lars Milland)
  3588. Subject: Distributed Shared Memory
  3589. Organization: Mathematics and Computer Science, Aalborg University
  3590.  
  3591. We are a group of students at the department of Math and CS at 
  3592. Aalborg University developing a distributed shared memory system and
  3593. we have run into some problems.
  3594.  
  3595. We are looking for a formal definition or a informal description of
  3596. different kinds of memory consistency/coherence in particular sequential
  3597. and processor consistency.
  3598.  
  3599. Please E-mail any answers to milland@iesd.auc.dk or dubois@iesd.auc.dk
  3600.  
  3601. Thanks in advance.
  3602.  
  3603. --
  3604. MM    MM    OOOOO   L       L        EEEEEE
  3605. MMM  MMM   O   O O  L       L        E        \\
  3606. M  MM  M   O  O  O  L       L        EEE   ====>> milland@iesd.auc.dk
  3607. M  MM  M   O O   O  L       L        E        //
  3608. Approved: parallel@hubcap.clemson.edu
  3609. Follow-up: comp.parallel
  3610. Path: bounce-back
  3611. Newsgroups: comp.parallel
  3612. From: wittmann@Informatik.TU-Muenchen.DE (Marion Wittmann)
  3613. Subject: algorithm classification
  3614. Organization: Technische Universitaet Muenchen, Germany
  3615.  
  3616.  
  3617.    I'm trying to classify parallel algorithms.
  3618.    Especially I'm interested in their characteristial
  3619.    SVM-properties. 
  3620.    Therefor I need some literature about
  3621.    application schemes and classification of algorithms,
  3622.    not only of parallel ones.
  3623.  
  3624.    If you know any literature dealing with this subject,
  3625.    please mail
  3626.   
  3627.      wittmann@informatik.tu-muenchen.de
  3628.  
  3629.    Thanks for your help
  3630.  
  3631. Approved: parallel@hubcap.clemson.edu
  3632. Follow-up: comp.parallel
  3633. Path: bounce-back
  3634. Newsgroups: comp.parallel
  3635. Date: Thu, 7 Oct 93 11:28:33 EDT
  3636. From: sumit@galileo.eng.wayne.edu (DPR)
  3637. Subject: MasPar MP 1 problems
  3638.  
  3639. I am just learning how to use a MasPar MP 1 machine. Could anyone send me some
  3640. programs in 'C' and/or MPL which can be executed under the MPPE ? I also have a
  3641. doubt about a system error message: problem LICENSE FAILURE: 5 -- no such feature exists   As a result of this I cannot execute any program under the MPPE...
  3642. Sumit Roy
  3643.  
  3644.  
  3645.  
  3646.  
  3647. Approved: parallel@hubcap.clemson.edu
  3648. Follow-up: comp.parallel
  3649. Path: bounce-back
  3650. Newsgroups: comp.parallel
  3651. From: arumilli@unlinfo.unl.edu (subbarao arumilli)
  3652. Subject: CRAY MPP
  3653. Organization: University of Nebraska--Lincoln    
  3654.  
  3655. Dear netreaders,
  3656.  
  3657. can anyone forward me the information regarding the new cray massively
  3658. parallel processing system.  Any information is appreciated.
  3659.  
  3660. thanks
  3661. subbarao
  3662. subbarao@engrs.unl.edu
  3663.  
  3664. Approved: parallel@hubcap.clemson.edu
  3665. Follow-up: comp.parallel
  3666. Path: bounce-back
  3667. Newsgroups: comp.software-eng,comp.parallel,comp.dsp,comp.realtime,comp.robotics
  3668. From: srctran@world.std.com (Gregory Aharonian)
  3669. Subject: New patent titles and numbers emailservice now being offered
  3670. Organization: The World Public Access UNIX, Brookline, MA
  3671.  
  3672.                   FREE NEW PATENT TITLES MAILING LIST VIA EMAIL
  3673.  
  3674.      Starting in late October, I will be offering a free service to anyone
  3675. who can receive email from the Internet. The service will be a weekly mailing
  3676. of all of the patents issued by the patent office during the last week (or
  3677. more specifically, all of the patents listed in the most recent issue of the
  3678. USPTO Patent Gazette).
  3679.  
  3680.      For each patent, the patent title and number will be listed.  The
  3681. mailing will consist of three files, each on the average totalling 50K of
  3682. ASCII text - one file with the mechanical patents, one file with the chemical
  3683. patents and one file with the electronic patents.  I have attached some sample
  3684. listings to the end of this message.  With each file there will be provided
  3685. some information on how to order paper and electronic versions of patents.
  3686. If you can receive and UNZIP a UUENCODED file, those files will be about 25K
  3687. in size, for those with smaller mail buffers.
  3688.  
  3689.      If this catches on, I will probably convert this over to a new USENET
  3690. group, something like comp.patents.new or the equivalent.  Also, I will be
  3691. setting up an anonymous ftp site to store the files being mailed out, as 
  3692. well as back files.  Until then, I will be running only the mailing service.
  3693.  
  3694.                       SERVICE IS FREE - FILES UNCOPYRIGHTED
  3695.  
  3696.      The service will be free, and the files are not copyrighted, so you are
  3697. free to do whatever you want with the information.  The mailing-list is open
  3698. to anyone on the planet. If this service is of help, a voluntary registration
  3699. fee will be appreciated.  Given sufficient contributions, I will be able to
  3700. post to the Internet and mailing list other patent information, in particular
  3701. more information on US patents, such as patent classification and patent
  3702. assignee, and brief information on foreign patents (in particular, Japanese
  3703. and British).  My goal in the long run is to help coordinate hooking up the
  3704. Patent Office's APS system to the Internet, and attach to the Internet CDROM
  3705. drives with the CDROMs sold by the Patent Office.
  3706.  
  3707.      Occasionally I will mail out to the mailing list announcements from the
  3708. Patent Office and other tidbits of patent information.  This will tend to be
  3709. short messages.  I am not affliated with the Patent Office in anyway, nor am
  3710. I am patent lawyer.
  3711.  
  3712.                     TO RECEIVE THE NEW PATENT LISTINGS FILES
  3713.  
  3714.      If you are interested in receiving these files, please send to me
  3715. your name and postal and email addresses, the words MECHANICAL, CHEMICAL
  3716. and/or ELECTRONIC (depending which groups you care to receive), and the
  3717. words ASCII or UUZIP (depending on which format you want - UUZIP means
  3718. you can receive and UNZIP a UUDECODED file).  If you want to receive patent
  3719. news information (PTO announcements, lawsuit outcomes), send the word NEWS.
  3720. If you want to receive all of the files, send the word ALL.
  3721.      Also, if you don't mind, please include some information on what you do
  3722. and how you might use this patent information.  Forward your requests to:
  3723.  
  3724.                    patents-request@world.std.com
  3725.  
  3726.      Please pass the word, especially to those not on the Internet or that
  3727. don't read USENET.  Patent information is very valuable for finding out what
  3728. others are doing, for locating new technologies to license, and to measure
  3729. rates of progress in other fields.
  3730.  
  3731.      If you have any questions, please contact me at   patents@world.std.com
  3732. and I'll get back.
  3733.  
  3734.  
  3735. Gregory Aharonian                                               617-489-3727
  3736. Source Translation & Optimization
  3737. P.O. Box 404
  3738. Belmont, MA 02178                                      patents@world.std.com
  3739.  
  3740.  
  3741.             SAMPLE LIST OF PATENTS AS DISTRIBUTED TO MAILING LIST
  3742.  
  3743. 5177809  Optical cable having a plurality of light waveguides
  3744.  
  3745. 5177808  Optical energy beam transmission path structure
  3746.  
  3747. 5177807  Device for the alignment of an optical fiber and an optoelectronic
  3748.          component
  3749.  
  3750. 5177806  Optical fiber feedthrough
  3751.  
  3752. 5177805  Optical sensors utilizing multiple reflection
  3753.  
  3754. 5177804  Waveguide-type optical switch
  3755.  
  3756. 5177803  Coaxial optical fiber coupler transmitter-receiver apparatus and
  3757.          method of making same
  3758.  
  3759. 5177802  Fingerprint input apparatus
  3760.  
  3761. 5177801  Cross fader for editing audio signals
  3762.  
  3763. 5177800  Bar code activated speech synthesizer teaching device
  3764.  
  3765. 5177799  Speech encoder
  3766.  
  3767. 5177798  Sound reproducer for high definition television
  3768.  
  3769. 5177797  Block transformation coding and decoding system with offset block
  3770.          division
  3771. -- 
  3772. **************************************************************************
  3773.  Greg Aharonian                                      srctran@world.std.com
  3774.  Source Translation & Optimization                            617-489-3727
  3775.  P.O. Box 404, Belmont, MA 02178
  3776.  
  3777. Approved: parallel@hubcap.clemson.edu
  3778. Follow-up: comp.parallel
  3779. Path: bounce-back
  3780. Newsgroups: comp.lang.functional,comp.parallel
  3781. From: phammond@cs.tcd.ie (Paul Hammond)
  3782. Subject: Parallel Functional Architectures
  3783. Summary: What's the current state of the art ?
  3784. Keywords: Parallel, architecture, 
  3785. Sender: phammond@cs.tcd.ie
  3786. Organization: Trinity College, Dublin (Computer Science)
  3787.  
  3788. Can anybody tell me what's the current state of the art in parallel
  3789. functional *architectures* at the moment ? What are the most successful
  3790. systems out there in terms of scalability and speedup ?
  3791.  
  3792. I have many references to systems but I would like to narrow that search
  3793. to the more successful ones and any that might have come to life in
  3794. recent times which my references mightn't cover.
  3795.  
  3796. TIA
  3797.  
  3798. Paul
  3799. -- 
  3800. ---------------------------------------------------------------------------
  3801. | Paul Hammond   E-mail : phammond@dsg.cs.tcd.ie  Phone : +353-1-7022354  |
  3802. | Computer Science Dept, Trinity College Dublin, Ireland                  |
  3803. ---------------------------------------------------------------------------
  3804.  
  3805. Approved: parallel@hubcap.clemson.edu
  3806. Follow-up: comp.parallel
  3807. Path: bounce-back
  3808. Newsgroups: comp.parallel
  3809. From: furnari@sp61.csrd.uiuc.edu (Mario Furnari)
  3810. Subject:  Call For Paper Int. Workshop on Massive Parallelism 94
  3811. Message-ID: <1993Oct7.165731.27431@csrd.uiuc.edu>
  3812. Keywords: parallel, CFP IWMP-94 
  3813. Organization: Univ of Illinois, Center for Supercomputing R&D, Urbana, IL
  3814. References: <93-10-031@comp.compilers>
  3815.  
  3816. Here enclosed the LaTeX version of the first announcement of the
  3817. 2nd International Workshop on Massivw Parallelism to be hel in Capri (italy) 
  3818. in the October 3-7 1994.
  3819.  
  3820. Please post ot all the interested people
  3821.  
  3822.  
  3823.             Mario Mango Furnari
  3824.             Istituto di Cibernetica
  3825.             mf@arco.na.cnr.it
  3826.  
  3827. ========cut here===================================
  3828.  
  3829. \documentstyle[10pt]{article}
  3830. % HORIZONTAL MARGINS
  3831. % Left margin 1 inch (0 + 1)
  3832. \setlength{\oddsidemargin}{0in}
  3833. % Text width 6.5 inch (so right margin 1 inch).
  3834. \setlength{\textwidth}{165mm}
  3835. \setlength{\textheight}{210mm}
  3836. % ----------------
  3837. % VERTICAL MARGINS
  3838. % Top margin 0.5 inch (-0.5 + 1)
  3839. \setlength{\topmargin}{+0 in}
  3840. % Head height 0.25 inch (where page headers go)
  3841. %\setlength{\headheight}{0.25in}
  3842. % Head separation 0.25 inch (between header and top line of text)
  3843. %\setlength{\headsep}{0.25in}
  3844. % Text height 9 inch (so bottom margin 1 in)
  3845. %\setlength{\textheight}{8.0in}
  3846. %\newlength{\illuswidth}
  3847. %\setlength{\illuswidth}{\textwidth}
  3848. %\addtolength{\illuswidth}{-12mm}
  3849. %\setlength{\oddsidemargin}{0in}
  3850.  
  3851. \begin{document}
  3852. \begin{center}
  3853. {\bf {\Large $2^{nd}$ International Workshop} \\
  3854. on \\
  3855. {\Large Massive Parallelism: Hardware, Software and Applications} \\
  3856. October 3-7  1994 \\
  3857. }
  3858. \end{center}
  3859.  
  3860.  
  3861. \vspace{10mm}
  3862.  
  3863. \begin{center}
  3864.   {\bf Organized by:} 
  3865.   Istituto di Cibernetica (Naples, Italy)            \\
  3866. \vspace{3mm}
  3867.  
  3868. \noindent in cooperation with
  3869.  
  3870. \vspace{3mm}
  3871.   Department of Computer Architecture (Barcelona, Spain)    \\
  3872.   Department of Computer Science (Patras, Grece)        \\
  3873.   Center for Supercomputing Research \& Development (Urbana Champagin, U.S.A)
  3874. \end{center}
  3875.  
  3876.  
  3877. The {\bf $2^{nd}$ International Workshop on Massive Parallelism: Hardware, 
  3878. Software, and Application} is sponsored by the {\em Progetto Finalizzato 
  3879. Calcolo Parallelo e Sistemi Informativi} which was established by the Italian
  3880. {\em Consiglio Nazionale delle Ricerche} to advance knowledge in all areas 
  3881. of parallel processing and related technologies.  
  3882. In addition to technical sessions of submitted paper presentations, MP '94 
  3883. will offer tutorials, a parallel systems fair, and commercial exhibits.
  3884.  
  3885. \vspace{3mm}
  3886. {\bf Call For Papers:}
  3887. Authors are invited to submit manuscripts that demonstrate original unpublished
  3888. research in all areas of massive parallel processing including development of
  3889. experimental or commercial systems.  
  3890. Topics of interest include:
  3891.  
  3892. \vspace{3mm}
  3893. \begin{center}
  3894. \begin{tabular}{ll}
  3895.   Parallel Algorithms              & Parallel Architectures \\
  3896.   Parallel Languages               & Programming Environments  \\
  3897.   Parallelizing Compilers       &  Performance Modeling/Evaluation   \\
  3898.   Signal \& Image Processing Systems & Operating Systems        \\
  3899.   Other Applications areas          & \\
  3900. \end{tabular}
  3901. \end{center}
  3902.  
  3903. \vspace{3mm}
  3904. To submit an original research paper, send five (hard) copies of your
  3905. complete manuscript (not to exceed 15 single-spaced pages of text using
  3906. point size 12 type on 8 1/2 X 11 inch pages) to the Workshop Secretariat.
  3907. References, figures, tables, etc.  may be included in addition to the
  3908. fifteen pages of text.  
  3909. Please include your postal address, e-mail address, telephone and  fax numbers.  
  3910. All manuscripts will be reviewed.
  3911. Manuscripts must be received by {\bf February 1, 1994}.  
  3912. Submissions received after the due date or exceeding the length limit may 
  3913. be returned and not considered.  
  3914. Notification of review decisions will be mailed by {\bf April 31, 1994}.  
  3915. Camera-ready papers are due {\bf May 31, 1994}.  
  3916. Proceedings will be available at the Symposium.  
  3917. Electronic submissions will be considered only if they are in \LaTeX or
  3918. MS-Word 5 for Macintosh.
  3919.  
  3920. \vspace{3mm}
  3921. {\bf Tutorials:}
  3922. Proposals are solicited for organizing full or half-day tutorials to be held on
  3923. during the Symposium.  
  3924. Interested individuals should submit a proposal by {\bf January 15, 1994} to
  3925. the  Tutorials Chair.  
  3926. It should include a brief description of the intended audience, a lecture 
  3927. outline and vita lecturer(s).
  3928.  
  3929. \vspace{3mm}
  3930. {\bf Parallel Systems Fair:}
  3931. This all day event will include presentations by researchers who have  parallel
  3932. machines under development, as well as by representatives of companies with
  3933. products of interest to the  Massively Parallel Processing community. 
  3934. A presentation summary should be submitted to the Parallel Systems Chair  by
  3935. January 15, 1994.  
  3936.  
  3937. \newpage
  3938. \begin{center}
  3939. {\large \bf MP '94 Organization:}
  3940. \end{center}
  3941.  
  3942. \vspace{3mm}
  3943. \begin{center}{\large \bf Workshop Program Committee:}\end{center}
  3944.  
  3945. {\small
  3946. \begin{tabular}{llll}
  3947. Arvind (USA)               & E. Ayguade (Spain)    & R. Bisiani (Italy) & R.
  3948. Halstead (U.S.A.)      \\
  3949. W. Jalby (France) & J. Labarta (Spain) & M. Mango Furnari (Italy)    & A. Nicolau
  3950. (USA)  \\
  3951. D. Padua (USA)          & R. Perrot (U.K.)   & C. Polychronopoulos (USA) & T.
  3952. Papatheodoru (Greece) \\
  3953. B. Smith (U.S.A.) & M. Valero (Spain)        & R. Vaccaro (Italy) & E. Zapata (Spain) 
  3954. \end{tabular}}
  3955.  
  3956.  
  3957. \vspace{3mm}
  3958. \begin{center}{\large \bf Organizing Committee:}
  3959.  
  3960. \vspace{3mm}
  3961. {\small
  3962. \begin{tabular}{ll}
  3963. M. Mango Furnari (Italy)    &   T. Papatheodoru (Greece) \\
  3964. R. Napolitano (Italy)        &   C. Di Napoli(Italy)      \\
  3965. E. Ayguade (Spain)        &   D. Padua (U.S.A.)        \\
  3966. \end{tabular}}
  3967. \end{center}
  3968.  
  3969. \vspace{10mm}
  3970. \begin{minipage}[t]{70mm}
  3971. {\large \bf Tutorials Chair:}\\ 
  3972. Prof.  C. Polychronopoulos \\
  3973. CSRD, University of Illinois \\
  3974. 1308 West Main St. \\
  3975. Urbana Champaign \\
  3976. IL 61801-2307 U.S.A. \\
  3977. Ph.: (+1) (217) 244-4144 \\
  3978. Fax: (+1) (217) 244-1351 \\
  3979. Internet: cdp@csrd.uiuc.edu  \\
  3980. \end{minipage} \  \
  3981. \begin{minipage}[t]{70mm}
  3982. {\large \bf Parallel Systems Fair Chair:}\\
  3983. Prof. A. Massarotti \\
  3984. Istituto di Cibernetica        \\
  3985. Via Toiano, 6            \\
  3986. I-80072 - Arco Felice (Naples) \\
  3987. Italy                \\
  3988. Phone: +39-81-853-4126      \\
  3989. Fax:   +39-81-526-7654      \\
  3990. E-mail: massarotti@cib.na.cnr.it
  3991. \end{minipage}
  3992.  
  3993. \vspace{5mm}
  3994. \begin{minipage}[tch]{70mm}
  3995. {\large \bf Symposium Chair:} \\
  3996. Mario Mango Furnari \\
  3997. Istituto di Cibernetica        \\
  3998. Via Toiano, 6            \\
  3999. I-80072 - Arco Felice (Naples, Italy)                \\
  4000. Phone: +39-81-853-4229      \\
  4001. Fax:   +39-81-526-7654      \\
  4002. E-mail: furnari@cib.na.cnr.it
  4003. \end{minipage} \  \
  4004. \begin{minipage}[tch]{70mm}
  4005. {\large \bf Secretariat:} \\
  4006. A. Mazzarella, C. Di Napoli \\
  4007. Istituto di Cibernetica        \\
  4008. Via Toiano, 6            \\
  4009. I-80072 - Arco Felice (Naples, Italy)                \\
  4010. Phone: +39-81-853-4123      \\
  4011. Fax:   +39-81-526-7654      \\
  4012. E-mail: secyann@cib.na.cnr.it
  4013. \end{minipage}
  4014.  
  4015. \vspace{10mm}
  4016. \begin{center}
  4017. \framebox{
  4018. \begin{tabular}{ll}
  4019. {\large Paper Submission Deadline:} & {\large January 8, 1994} \\
  4020.  {\large Tutorial proposals due:} & {\large January 15, 1994} \\
  4021.  {\large Systems fair presentation due:} & {\large January 15, 1994} \\
  4022.  {\large Acceptance letter sent:} & {\large April 31, 1994} \\
  4023.  {\large Camera ready copies due:} & {\large May 31, 1994}
  4024.  \end{tabular}}
  4025. \end{center}
  4026. \end{document}
  4027.  
  4028. Approved: parallel@hubcap.clemson.edu
  4029. Follow-up: comp.parallel
  4030. Path: bounce-back
  4031. Newsgroups: comp.parallel
  4032. From: Announce@PARK.BU.EDU
  4033. Subject:  Graduate study in Cognitive and Neural Systems at Boston University 
  4034.  
  4035.  
  4036.          ***********************************************
  4037.          *                                             *
  4038.          *                 DEPARTMENT OF               *
  4039.          *      COGNITIVE AND NEURAL SYSTEMS (CNS)     *
  4040.          *              AT BOSTON UNIVERSITY           *
  4041.          *                                             *
  4042.          ***********************************************
  4043.  
  4044.                     Stephen Grossberg, Chairman
  4045.          Gail A. Carpenter, Director of Graduate Studies
  4046.  
  4047.  
  4048. The Boston University Department of Cognitive and Neural Systems offers 
  4049. comprehensive advanced training in the neural and computational principles, 
  4050. mechanisms, and architectures that underly human and animal behavior, 
  4051. and the application of neural network architectures to the solution of 
  4052. technological problems.
  4053.  
  4054. Applications for Fall, 1994 admission and financial aid are now being 
  4055. accepted for both the MA and PhD degree programs.
  4056.  
  4057. To obtain a brochure describing the CNS Program and a set of application
  4058. materials, write, telephone, or fax:
  4059.  
  4060.    Department of Cognitive & Neural Systems
  4061.    Boston University
  4062.    111 Cummington Street, Room 240
  4063.    Boston, MA 02215
  4064.    617/353-9481 (phone)
  4065.    617/353-7755 (fax)
  4066.  
  4067. or send via email your full name and mailing address to: 
  4068.  
  4069.    rll@cns.bu.edu
  4070.  
  4071. Applications for admission and financial aid should be received by the 
  4072. Graduate School Admissions Office no later than January 15.  Late 
  4073. applications will be considered until May 1; after that date applications 
  4074. will be considered only as special cases.
  4075.  
  4076. Applicants are required to submit undergraduate (and, if applicable, 
  4077. graduate) transcripts, three letters of recommendation, and Graduate
  4078. Record Examination (GRE) scores. The Advanced Test should be in the
  4079. candidate's area of departmental specialization. GRE scores may be
  4080. waived for MA candidates and, in exceptional cases, for PhD candidates,
  4081. but absence of these scores may decrease an applicant's chances for 
  4082. admission and financial aid.
  4083.  
  4084. Non-degree students may also enroll in CNS courses on a part-time basis.
  4085.  
  4086. Description of the CNS Department:
  4087.  
  4088. The Department of Cognitive and Neural Systems (CNS) provides advanced
  4089. training and research experience for graduate students interested in the 
  4090. neural and computational principles, mechanisms, and architectures that 
  4091. underlie human and animal behavior, and the application of neural network 
  4092. architectures to the solution of technological problems. Students are 
  4093. trained in a broad range of areas concerning cognitive and neural systems, 
  4094. including vision and image processing; speech and language understanding; 
  4095. adaptive pattern recognition; cognitive information processing; self-
  4096. organization; associative learning and long-term memory; computational
  4097. neuroscience; nerve cell biophysics; cooperative and competitive network 
  4098. dynamics and short-term memory; reinforcement, motivation, and attention; 
  4099. adaptive sensory-motor control and robotics; active vision; and biological 
  4100. rhythms; as well as the mathematical and computational methods needed to 
  4101. support advanced modeling research and applications. The CNS Department 
  4102. awards MA, PhD, and BA/MA degrees.
  4103.  
  4104. The CNS Department embodies a number of unique features. It has developed 
  4105. a curriculum that consists of twelve interdisciplinary graduate courses 
  4106. each of which integrates the psychological, neurobiological, mathematical, 
  4107. and computational information needed to theoretically investigate 
  4108. fundamental issues concerning mind and brain processes and the applications 
  4109. of neural networks to technology. Nine additional advanced courses, 
  4110. including research seminars, are also offered. Each course is typically 
  4111. taught once a week in the evening to make the program available to 
  4112. qualified students, including working professionals, throughout the Boston 
  4113. area. Students develop a coherent area of expertise by designing a program 
  4114. that includes courses in areas such as Biology, Computer Science, Engineering, 
  4115. Mathematics, and Psychology, in addition to courses in the CNS curriculum.
  4116.  
  4117. The CNS Department prepares students for thesis research with scientists 
  4118. in one of several Boston University research centers or groups, and with 
  4119. Boston-area scientists collaborating with these centers. The unit most 
  4120. closely linked to the department is the Center for Adaptive Systems (CAS). 
  4121. Students interested in neural network hardware work with researchers in 
  4122. CNS, the College of Engineering, and at MIT Lincoln Laboratory. Other 
  4123. research resources include distinguished research groups in neurophysiology, 
  4124. neuroanatomy, and neuropharmacology at the Medical School and the Charles 
  4125. River campus; in sensory robotics, biomedical engineering, computer and 
  4126. systems engineering, and neuromuscular research within the Engineering 
  4127. School; in dynamical systems within the Mathematics Department; in 
  4128. theoretical computer science within the Computer Science Department; and 
  4129. in biophysics and computational physics within the Physics Department. 
  4130.  
  4131. In addition to its basic research and training program, the Department 
  4132. conducts a seminar series, as well as conferences and symposia, which bring 
  4133. together distinguished scientists from both experimental and theoretical 
  4134. disciplines.
  4135.  
  4136. 1993-94 CAS MEMBERS and CNS FACULTY:
  4137.  
  4138. Jacob Beck                
  4139. Daniel H. Bullock
  4140. Gail A. Carpenter
  4141. Chan-Sup Chung
  4142. Michael A. Cohen 
  4143. H. Steven Colburn
  4144. Paolo Gaudiano  
  4145. Stephen Grossberg 
  4146. Frank H. Guenther         
  4147. Thomas G. Kincaid
  4148. Nancy Kopell
  4149. Ennio Mingolla
  4150. Heiko Neumann
  4151. Alan Peters
  4152. Adam Reeves
  4153. Eric L. Schwartz
  4154. Allen Waxman
  4155. Jeremy Wolfe
  4156.  
  4157.  
  4158.  
  4159.  
  4160. Approved: parallel@hubcap.clemson.edu
  4161. Follow-up: comp.parallel
  4162. Path: bounce-back
  4163. Newsgroups: comp.parallel
  4164. From: chkim@pollux.usc.edu (Chinhyun Kim)
  4165. Subject: Portable Parallel Languages
  4166. Organization: University of Southern California, Los Angeles, CA
  4167.  
  4168. I am looking for some references on portable explicit parallel
  4169. programming approaches. Specifically, I'm interested in knowing such
  4170. things as the intended areas of application (numeric, symbolic or
  4171. general purpose), execution model, portability, currently supported
  4172. machine platforms and performance. But, I'll gratefully take any info.
  4173. that comes my way. :-)
  4174.  
  4175. Thanks in advance,
  4176.  
  4177. -- 
  4178. Chinhyun Kim
  4179. Dept. EE-Systems
  4180. Univ. of Southern California
  4181. <chkim@pollux.usc.edu>
  4182.  
  4183. Approved: parallel@hubcap.clemson.edu
  4184. Follow-up: comp.parallel
  4185. Path: bounce-back
  4186. From: morgan@unix.sri.com (Morgan Kaufmann Publishers)
  4187. Newsgroups: comp.arch,comp.ai,comp.ai.neural-nets,comp.parallel
  4188. Subject: Publication Announcement for PARALLEL PROCESSING by Moldovan
  4189. Organization: SRI International, Menlo Park, CA
  4190.  
  4191. Announcing A New Publication from Morgan Kaufmann Publishers
  4192.  
  4193. PARALLEL PROCESSING FROM APPLICATIONS TO SYSTEMS
  4194. by Dan I. Moldovan
  4195. (University of Southern  California)
  4196.  
  4197. ISBN 1-55860-254-2; 567 pages; cloth; $59.95 U.S. / International
  4198. prices will vary.
  4199.  
  4200. This text provides one of the broadest presentations of parallel
  4201. processing available, including the structure of parallel
  4202. processors and parallel algorithms. The emphasis is on mapping
  4203. algorithms to highly parallel computers, with extensive coverage of
  4204. array and multiprocessor architectures. Early chapters provide
  4205. insightful coverage on the analysis of parallel algorithms and
  4206. program transformations, effectively integrating a variety of
  4207. material previously scattered throughout the literature. Theory and
  4208. practice are well-balanced across diverse topics in this concise
  4209. presentation. For exceptional clarity and comprehension, the author
  4210. presents complex material in geometric graphs as well as algebraic
  4211. notation. Each chapter includes well-chosen examples, tables
  4212. summarizing related key concepts and definitions, and a broad range
  4213. of worked exercises.
  4214.  
  4215.  
  4216. Features:
  4217.      Overview of common hardware and theoretical models, including
  4218.      algorithm characteristics and impediments to fast performance 
  4219.  
  4220.      Analysis of data dependencies and inherent parallelism through
  4221.      program examples, building from simple to complex
  4222.  
  4223.      Graphic and explanatory coverage of program transformations
  4224.      
  4225.      Easy-to-follow presentation of parallel processor structures
  4226.      and interconnection networks, including parallelizing and
  4227.      restructuring compilers
  4228.  
  4229.      Parallel synchronization methods and types of parallel
  4230.      operating systems
  4231.  
  4232.      Detailed descriptions of hypercube systems
  4233.      
  4234.      Specialized chapters on dataflow and on AI architectures
  4235.  
  4236.  
  4237.  
  4238. TABLE OF CONTENTS:
  4239. 1. Introduction
  4240.   1.1 Parallelism as a Concept
  4241.      1.1.1 Models of Parallel Computations
  4242.      1.1.2 Levels of Parallelism
  4243.   1.2 Applications of Parallel Processing
  4244.   1.3 Relation between Parallel Algorithms and Architectures
  4245.   1.4 Performance of Parallel Computations
  4246.      1.4.1 Need for Performance Evaluation
  4247.      1.4.2 Performance Indices of Parallel Computation
  4248.      1.4.3 Striving Toward Teraflops Performance
  4249.      1.4.4 Mathematical Models 
  4250.      1.4.5 Performance Measurement and Analysis
  4251.   1.5 Main Issues for Future research in Parallel Processing
  4252.      1.5.1 Understand the Influence of Technology on Parallel
  4253.            Computer Designs
  4254.      1.5.2 Develop Models for Large Parallel Computer Systems
  4255.      1.5.3 Define the Fundamental Parallel Architectures
  4256.      1.5.4 Develop a System Level Design Theory
  4257.      1.5.5 Develop Theory and Practices for Designing Parallel
  4258.            Algorithms
  4259.      1.5.6 Develop Techniques for Mapping Algorithms and Programs
  4260.            into Architectures
  4261.      1.5.7 Develop Languages Specific to Parallel Processing
  4262.      1.5.8 Develop Parallel Compilers for Commonly Used Languages
  4263.      1.5.9 Develop the Means to Evaluate Performance of Parallel
  4264.            Computer Systems
  4265.      1.5.10 Develop Taxonomies for Parallel Processing Systems
  4266.      1.5.11 Develop Techniques for Parallel Knowledge Processing
  4267.   1.6 Bibliographical Notes and Further Reading
  4268.   1.7 Problems
  4269. 2 Analysis of Parallelism in Computer Algorithms
  4270.   2.1 Data and Control Dependencies
  4271.   2.2 Parallel Numerical Algorithms
  4272.      2.2.1 Algorithms without Loops
  4273.      2.2.2 Matrix Multiplication 
  4274. 2.2.3 Relaxation
  4275.      2.2.4 Recurrence Relations
  4276.      2.2.5 QR Algorithm
  4277.   2.3 Parallel Non-Numerical Algorithms
  4278.      2.3.1 Transitive Closure
  4279.      2.3.2 Dynamic Programming
  4280.      2.3.3 Optimal Binary Search Trees
  4281.      2.3.4 Subgraph Isomorphism
  4282.      2.3.5 Parallel Sorting
  4283.   2.4 Bibliographical Notes and Further Reading
  4284.   2.5 Problems
  4285.  
  4286. 3 Program Transformations
  4287.   3.1 Removal of Output Dependencies and Anti-dependencies
  4288.   3.2 Programs with Loops
  4289.      3.2.1 Forms of Parallel Loops
  4290.      3.2.2 Loop Transformations
  4291.   3.3 Transformation of Index sets and Dependencies
  4292.      3.3.1 The Basic Idea
  4293.      3.3.2 Linear Transformations
  4294.   3.4 Optimal Time Transformations
  4295.      3.4.1 Parallel Computation Time
  4296.      3.4.2 Selection of Optimal Time Transformation
  4297.      3.5 Nonlinear Transformations
  4298.   3.6 Bibliographical Notes and Further Reading
  4299.   3.7 Problems
  4300.  
  4301. 4 Array Processors
  4302.   4.1 Single-Instruction Multiple-Data (SIMD) Computers
  4303.      4.1.1 Local-Memory SIMD Model
  4304.      4.1.2 Shared-Memory SIMD
  4305.      4.1.3 Three-Dimensional SIMD Model
  4306.   4.2 Interconnection Networks for SIMD Computers
  4307.      4.2.1 Permutation Functions
  4308.      4.2.2 Single-Stage Networks
  4309.      4.2.3 Multistage Networks
  4310.   4.3 SIMD Supercomputers
  4311.      4.3.1 The Connection Machine
  4312.      4.3.2 The Hughes 3-D Computer
  4313.   4.4 Systolic Array Processors
  4314.      4.4.1 Principles of Systolic Processing
  4315.      4.4.2 Warp and iWarp
  4316.   4.5 Associative Processing
  4317.      4.5.1 The Structure of an Associative Memory
  4318.      4.5.2 Algorithms
  4319.      4.5.3 Associative Array Processors
  4320.   4.6 Bibliographical Notes and Further Reading
  4321.   4.7 Problems
  4322.  
  4323. 5 Mapping Algorithms into Array Processors
  4324.   5.1 Mapping of Algorithms into Systolic Arrays
  4325.      5.1.1 Systolic Array Model
  4326.      5.1.2 Space Transformations
  4327.      5.1.3 Design Parameters
  4328.   5.2 Algorithms Partitioning for Fixed-Size Systolic Arrays
  4329.      5.2.1 The Partitioning Problem
  4330.      5.2.2 Examples of Algorithm Partitioning
  4331.      5.2.3 Partitioning Methodology
  4332.   5.3 Mapping of Algorithms into SIMD Processors
  4333.      5.3.1 Remapping Transformations
  4334.      5.3.2 Design Tradeoffs Using Transformations
  4335.      5.3.3 Relation Between Logical Transfers and Physical
  4336.      Transfers
  4337.   5.4 Mapping of Algorithms into Mesh-Connected Networks
  4338.      5.4.1 Mapping techniques
  4339.      5.4.2 Mapping of Algorithms with the Perfect-Shuffle
  4340.      Permutation
  4341.   5.5 Bibliographical Notes and Further Reading
  4342.   5.6 Problems
  4343.  
  4344. 6 Multiprocessor Systems
  4345.   6.1 Multiprocessor Organization and Operating Principle
  4346.      6.1.1 Shared-Memory Systems
  4347.      6.1.2 Message-Passing Systems
  4348.      6.1.3 Primary Issues in Multiprocessing Systems
  4349.   6.2 Multiprocessor Interconnection Networks and Memories
  4350.      6.2.1 Interconnection Organizations
  4351.      6.2.2 Network Characteristics
  4352.      6.2.3 NYU Enhanced Omega Network
  4353.      6.2.4 Multiprocessor Memories
  4354.   6.3 Mapping Algorithms into Multiprocessors
  4355.      6.3.1 Parallelism Detection 
  4356.      6.3.2 Partitioning
  4357.      6.3.3 Scheduling
  4358.   6.4 Operating System for Multiprocessors
  4359.      6.4.1 Operating System Functions
  4360.      6.4.2 Synchronization
  4361.      6.4.3 The MACH Operating System
  4362.      6.4.4 Multiprocessor Operating System Organization
  4363.   6.5 The Cedar Multiprocessor
  4364.      6.5.1 Architecture
  4365.      6.5.2 Software
  4366.   6.6 Hypercube Computers
  4367.      6.6.1 Hypercube Topology
  4368.      6.6.2 Design Issues
  4369.      6.6.3 From Hypercubes to Touchstones
  4370.   6.7 Bibliographical Notes and Further Reading Problems
  4371.   6.8 Problems
  4372.  
  4373. 7 Data-Flow Computing
  4374.   7.1 Data and Demand-Driven Models of Computation
  4375.      7.1.1 Basic Models
  4376.      7.1.2 Data-Flow graphs
  4377.   7.2 Static Data-Flow Computers
  4378.   7.3 Dynamic Data-Flow Computers
  4379.      7.3.1 The Tagged-Token Principle
  4380.      7.3.2 The Manchester Data-Flow Computer
  4381.      7.3.3 The SIGMA-1 Data-Flow Computer
  4382.   7.4 Combining Data Flow and Control Flow
  4383.      7.4.1 Hybrid Data-Flow Computers
  4384.   7.5 Bibliographical Notes and Further Reading
  4385.   7.6 Problems
  4386. 8 Parallel Processing of Rule-Based Systems and Semantic Networks
  4387.   8.1 Parallelism Analysis in Rule-Based Systems
  4388.      8.1.1 Rule-Based Systems
  4389.      8.1.2 Parallelism in the Match Phase
  4390.      8.1.3 Rule Interdependencies
  4391.      8.1.4 Search Space Reduction
  4392.   8.2 Multiple-Rule Firing
  4393.      8.2.1 Compatibility and Convergence
  4394.      8.2.2 Multiple-Rule Firing Models
  4395.      8.2.3 Mapping RBS into Multiprocessors
  4396.   8.3 Knowledge Representation and Reasoning Using Semantic
  4397. Networks
  4398.      8.3.1 Semantic Networks
  4399.      8.3.2 Marker/Value Propagation Model
  4400.      8.3.3 Reasoning on Semantic Networks
  4401.   8.4 Parallel Natural Language Processing
  4402.      8.4.1 Memory-Based Parsing
  4403.      8.4.2 Parallel Linguistic Processing
  4404.   8.5 Semantic Network Array Processor
  4405.      8.5.1 Conceptual SNAP Architecture
  4406.      8.5.2 Marker Processing on a SNAP
  4407.      8.5.3 Examples of Knowledge Processing on a SNAP
  4408.   8.6 Bibliographical Notes and Further Reading
  4409.   8.7 Problems
  4410.  
  4411. OTHER TITLES OF INTEREST FROM MORGAN KAUFMANN
  4412.  
  4413. Computer Architecture: A Quantitative Approach
  4414.      John L. Hennessy (Stanford) and David A. Patterson (UC
  4415.      Berkeley)
  4416.  
  4417. Parallel Algorithms and Architectures: Arrays, Trees, and
  4418. Hypercubes
  4419.      F. Thomson Leighton (MIT)
  4420.  
  4421. Parallel Computing Works!
  4422.      Geoffrey C. Fox (Syracuse), Roy D. Williams (Caltech), and
  4423.      Paul C. Messina (Caltech)
  4424.  
  4425. ORDERING INFORMATION:
  4426. Orders may be placed by:
  4427. U.S. Canada    Phone: (800) 745-7323 
  4428.                (outside U.S.& Canada (415) 578-9911)
  4429.                Fax: (415) 578-0672
  4430.                E-mail: morgan@unix.sri.com
  4431.                Mail: 2929 Campus Dr., #260 San Mateo, CA 94403 USA
  4432.  
  4433. Europe/UK      Phone: (0273) 748427
  4434.                Fax: (0273) 722180
  4435.                Mail:  27 Church Road, Hove, East Sussex, BN3 2FA,
  4436.                       England
  4437. Australia      Phone: (02)566-4400
  4438.                Fax: (02) 566-4411
  4439.                Mail: Locked Bag 2, Annandale P.O., NSW 2038,
  4440.                      Australia
  4441. All other countries please contact our U.S. office.
  4442.  
  4443. American Express, Master Card, VISA and Personal Checks drawn on
  4444. U.S. banks accepted for payment.
  4445. Shipping: In the U.S. and Canada, please add $3.50 for the first
  4446. book and $2.50 for each additional book for surface shipping. For
  4447. International shipping please add $6.50 for the first book and
  4448. $3.50 for each additional book.
  4449.  
  4450. Approved: parallel@hubcap.clemson.edu
  4451. Follow-up: comp.parallel
  4452. Path: bounce-back
  4453. Newsgroups: comp.parallel
  4454. From: snoo@uni-paderborn.de (Holger Naundorf)
  4455. Subject: Q:virtual shared memory
  4456. Organization: Uni-GH Paderborn, Germany
  4457.  
  4458. Does anyone no a public domain program that simulates
  4459. a shared memory maschine on a network of Sun workstations?
  4460.  
  4461. Thanks in advance,
  4462.      Holger Naundorf
  4463.      snoo@uni-paderborn.de
  4464.  
  4465. Approved: parallel@hubcap.clemson.edu
  4466. Follow-up: comp.parallel
  4467. Path: bounce-back
  4468. Newsgroups: comp.parallel
  4469. From: ees2cj@ee.surrey.ac.uk (Chris R Jesshope)
  4470. Subject: Euro-Par Conference Site Bids
  4471. Organization: University of Surrey, Guildford, England
  4472.  
  4473. As you may be aware, The European Conferences CONPAR/VAPP
  4474. and PARLE will be merging to give a new series of European
  4475. Conferences called EURO-PAR. EURO-PAR will be held annually
  4476. at a site in Europe and the first conference will be held in
  4477. 1995. The Steering Committee of the EURO-PAR Conference will
  4478. be considering the selection of sites at its meeting on 12
  4479. November.
  4480.  
  4481. Anyone wishing to be considered should prepare a brief bid
  4482. covering the points listed in the document attached. The 
  4483. deadline for bids is Friday 5th November. All bids should
  4484. be address (by email) to me,
  4485.  
  4486. Chris Jesshope
  4487. Chairman Euro-Par Steering Committee
  4488. C.Jesshope@ee.surrey.ac.uk
  4489.  
  4490.  
  4491. encl........................................................
  4492.  
  4493.  
  4494.                         EURO-PAR
  4495.      site-procedures for organizing a conference
  4496.  
  4497.  
  4498.  
  4499. The following items give a framework for preparing a bid to host the
  4500. Euro-Par Conference. The Steering Committee will take these into
  4501. account when selecting a site
  4502.  
  4503.  
  4504. Sessions and rooms
  4505. ==================
  4506.  
  4507.    A more or less comfortable ambience is necessary.
  4508.    Public institutions with lecture halls for free
  4509.    would keep conference fees low.
  4510.    Larger hotels offer mostly better conference rooms
  4511.    etc. They should be preferred if costs are moderate.
  4512.    In that case the costs should be demonstrated by the
  4513.    local organizers.
  4514.    In any case costs of three or for hotel options should
  4515.    be given including typical distances to the conference
  4516.    site.
  4517.  
  4518. Expected Pariticipants
  4519. ======================
  4520.  
  4521. (typical values)
  4522.  
  4523. -The number of participants should be limited to 400 persons
  4524.  if no special information on more persons is available.
  4525. -A  minimum of 200 persons should be assumed for typical
  4526.  estimates of conference fees.
  4527. -If less than 150 persons are expected the conference
  4528.  should be cancelled.
  4529.  
  4530. Rooms Required
  4531. ==============
  4532.  
  4533. -The main hall must host a minimum of 400 persons (plenum).
  4534. -There should be possible a maximum of 4 parallel sessions: 
  4535.  4 rooms for 150 persons each (minimum 100 persons)
  4536.  are needed.
  4537. -There should be 2-4 rooms for meetings of special
  4538.  interest groups (for about 20-50 persons each).
  4539. -There should be areas for:
  4540.  coffee breaks, poster exhibition, book exhibition,
  4541.  systems exhibition (mainly network connections via
  4542.  workstations to remote systems)
  4543.  
  4544. Technical installations of lecture rooms
  4545. ========================================
  4546.  
  4547. -Each lecture room must have two overhead projectors, a
  4548.  microphone+loadspeaker installation, a room lightdimming
  4549.  system.
  4550. -Further devices are helpful and should be listed:
  4551.  blackboard, diaprojectors, videoprojectors, large
  4552.  screen projectors, computeraided videosystems.
  4553.  
  4554. Lunch times
  4555. ===========
  4556.  
  4557. -There should be restaurants at a maximum walk distance
  4558.  of 10 minutes with a total capacity of 5 times the
  4559.  estimated number of conference participants.
  4560.  
  4561. Conference dinner
  4562. =================
  4563.  
  4564. -In order to bring together the conference participants
  4565.  a comfortable restaurant with a pleasant atmosphere
  4566.  should be taken into account.
  4567.  
  4568. Lodgings
  4569. ========
  4570.  
  4571. -Hotels, pensions, etc should have a capacity of 20 times
  4572.  the number of expected conference participants if no
  4573.  special offer and reservation is available. A letting
  4574.  agency should do the job.
  4575.  
  4576. Travel connections
  4577. ==================
  4578.  
  4579. -A map of the conference location should be given. Car 
  4580.  parking and typical airport-, train-, bus-, and 
  4581.  highway-connections should be evident and satisfactory.
  4582.  If some of them are not satisfactory the organizers
  4583.  should propose further support.
  4584.  
  4585. Special circumstances of conference site
  4586. ========================================
  4587.  
  4588. -This may concern local industry, local expertise or
  4589.  even special interests, such as festivals etc.
  4590.  although the latter may put pressure on accomodation.
  4591.  
  4592. Approved: parallel@hubcap.clemson.edu
  4593. Follow-up: comp.parallel
  4594. Path: bounce-back
  4595. Newsgroups: comp.parallel
  4596. Subject: References for M-Machine
  4597. From: "Aggeliki Balou (+44-71-387-7050 ext.3721)" <A.Balou@cs.ucl.ac.uk>
  4598.  
  4599. Dear all,
  4600.  
  4601. I would be grateful if somebody could provide me with reference(s) for the
  4602. M-Machine (if there are ftp-able papers/ reports it would be even better!).
  4603. This is a massively parallel machine, developed at MIT, which is a later
  4604. version of the J-Machine, intended mainly for AI applications (I believe)
  4605. and supports fine-grained computation based on Actors.
  4606.  
  4607. Many thanks in advance
  4608.  
  4609. Aggeliki
  4610.  
  4611.  
  4612. +--------------------------+-------------------------------------------------+
  4613. |Aggeliki Balou            |   JANET:aggeliki@uk.ac.ucl.cs                   |
  4614. |Dept. of Computer Science |  BITNET:aggeliki%uk.ac.ucl.cs@UKACRL            |
  4615. |University College London |Internet:aggeliki%cs.ucl.ac.uk@nsfnet-relay.ac.uk|
  4616. |Gower Street              | ARPANet:aggeliki@cs.ucl.ac.uk                   |
  4617. |London WC1E 6BT           |    UUCP:...!mcvax!ukc!ucl-cs!aggeliki           |
  4618. +--------------------------+-------------------------+-----------------------+
  4619. | Tel:(071)-387-7050 x3721 |   Fax: (071)-387-1397   |      Telex: 28722     |
  4620. +--------------------------+-------------------------+-----------------------+
  4621.  
  4622. Approved: parallel@hubcap.clemson.edu
  4623. Follow-up: comp.parallel
  4624. Path: bounce-back
  4625. From: packer@fermi.gsfc.nasa.gov (Charles Packer)
  4626. Newsgroups: sci.med,misc.headlines,comp.parallel
  4627. Subject: Gelernter (Yale bombing victim) eye injury
  4628. Date: 8 Oct 1993 12:02:41 GMT
  4629. Organization: Dept. of Independence
  4630.  
  4631. In Thursday's NY Times there is a long article, with photo, about David
  4632. Gelernter, the Yale computer scientist who was wounded by a bomb on June 22.
  4633. Among other injuries, he was blinded in one eye, according to the story. The
  4634. photo of him, with bandaged hand but unblemished face, gives no clue as 
  4635. to the extent of his eye injury. He expects to have surgery which "may 
  4636. help restore" his vision. What might that surgery be?
  4637.  
  4638. Approved: parallel@hubcap.clemson.edu
  4639. Follow-up: comp.parallel
  4640. Path: bounce-back
  4641. Newsgroups: comp.parallel
  4642. From: stratton@dcs.warwick.ac.uk (Andrew Stratton)
  4643. Subject: Help! Need `twelve ways to fool the masses'.
  4644. Message-ID: <1993Oct8.120719.13625@dcs.warwick.ac.uk>
  4645. Organization: Department of Computer Science, Warwick University, England
  4646.  
  4647. I can't find the document above - which tells how to fool people when
  4648. quoting parallel computer performance.  I fairly certain that it is
  4649. available somwhere on an ftp site - but I can't find it with archie.
  4650.  
  4651. Please could someone let me know where to get it from - ftp or paper
  4652. reference is fine.
  4653.  
  4654. Thanks in advance.
  4655.  
  4656. Andy Stratton.
  4657.  
  4658. P.S. Please reply by email - I will post if requested.
  4659.  
  4660. Approved: parallel@hubcap.clemson.edu
  4661. Follow-up: comp.parallel
  4662. Path: bounce-back
  4663. Newsgroups: comp.parallel,comp.sys.super,misc.jobs.offered,misc.jobs.offered.entry,sci.math.num-analysis
  4664. From: wdj@c3serve.c3.lanl.gov (Wayne D Joubert)
  4665. Subject: GRA Positions in Parallel Computation / Numerical Analysis
  4666. Organization: Los Alamos National Laboratory
  4667.  
  4668.                 Graduate Student Research Assistants
  4669.                   Los Alamos National Laboratory
  4670.             (PARALLEL COMPUTATION AND NUMERICAL ANALYSIS)
  4671.  
  4672. The Computer Research and Applications Group at Los Alamos National
  4673. Laboratory is currently seeking highly motivated graduate students
  4674. to participate in the Graduate Research Assistant program.  Students
  4675. with experience in any or all of the following categories are
  4676. encouraged to apply:
  4677.  
  4678.      Parallel Computer Programming
  4679.      Numerical Linear Algebra
  4680.      Software Library Development
  4681.  
  4682. Experience with Fortran, C and assembly languages on parallel machines such
  4683. as the Connection Machine CM-2/200, CM-5, Intel iPSC/860, Paragon and
  4684. workstation clusters is desirable.  A minimum GPA of 2.5 is required.
  4685. Appointments can range from 3 to 12 months in duration.  Interested
  4686. individuals are encouraged to contact Wayne Joubert for more information:
  4687.  
  4688.      Wayne Joubert
  4689.      Los Alamos National Laboratory
  4690.      Group C-3, MS B-265
  4691.      Los Alamos, NM  87545
  4692.  
  4693.      EMAIL:  wdj@lanl.gov
  4694.  
  4695. Los Alamos is an equal-opportunity employer.
  4696.  
  4697. Approved: parallel@hubcap.clemson.edu
  4698. Follow-up: comp.parallel
  4699. Path: bounce-back
  4700. Newsgroups: comp.parallel
  4701. From: dduke@ibm1.scri.fsu.edu (Dennis Duke)
  4702. Subject: Second Announcement - Cluster Computing '93
  4703.  
  4704. -- 
  4705.                          CLUSTER WORKSHOP '93
  4706.  
  4707.                          Second Announcement
  4708.                 NOVEMBER 1, 1993 DEADLINE FOR ABSTRACTS
  4709.  
  4710.              Supercomputer Computations Research Institute
  4711.                         Florida State University
  4712.                        Tallahassee, Florida 32306
  4713.  
  4714.             Tuesday, December 7 - Thursday, December 9, 1993
  4715.  
  4716.                             NEW THIS YEAR
  4717.                      Special Tutorial/Vendor Day
  4718.                        Monday, December 6, 1993
  4719.  
  4720.        Organizers: Sudy Bharadwaj (sudy@sca.com), SCA
  4721.                    Peter Dragovitsch (drago@scri.fsu.edu), SCRI, FSU
  4722.                    Dennis Duke (dduke@scri.fsu.edu), SCRI, FSU
  4723.                    Adam Kolawa (ukola@flea.parasoft.com), Parasoft
  4724.            Tim Mattson (tgm@SSD.intel.com), Intel
  4725.                    Neil Lincoln (nrl@nips.ssesco.com), SSESCO
  4726.                    Vaidy Sunderam (vss@mathcs.emory.edu), Emory University
  4727.  
  4728. Cluster Workshop '93 continues the series of cluster computing workshops
  4729. held at SCRI in 1991 and 1992. The nature of the workshop (submission, 
  4730. sessions, proceedings) is deliberately designed to enable maximum
  4731. dissemination and exchange of information in the most timely manner possible.
  4732.  
  4733. The goal of the workshop is to bring together people who are interested in
  4734. the issues of using heterogeneous clusters of computers as computational 
  4735. resources. This group of people would include:
  4736.  
  4737.  - computational scientists or other end-users who desire to exploit 
  4738.    the power and capabilities of heterogeneous clusters as an
  4739.    alternative to or in conjunction with conventional supercomputers or MPP's
  4740.  
  4741.  - software developers of queuing systems, parallel processing packages, and
  4742.    other software tools 
  4743.  
  4744.  - system administrators interested in both the strategic and technical issues
  4745.    of running clusters, including in general any kind of heterogeneous
  4746.    collection of networked computers
  4747.  
  4748.  - vendors who are developing products to serve this market:
  4749.    (a) new generations of high performance workstations
  4750.    (b) new forms of packaging of workstations
  4751.    (c) new high speed networking products
  4752.    (d) new products for addressing mass storage and other I/O needs
  4753.    (e) any other applicable technology
  4754.  
  4755.  - persons who would like to share their experiences, and especially give
  4756.    critical advice on desired user requirements, shortcomings of present
  4757.    hardware and software configurations, successes and failures to date,
  4758.    overviews of planned projects, etc.
  4759.  
  4760. Although most practical implementations of clusters to date consist of 
  4761. collections of RISC workstations, we are interested also in more general
  4762. configurations which might include any number of distinct architectures, 
  4763. and a variety of new high-speed network interconnections.
  4764.  
  4765. The format of the workshop will be to fill the day with contributed and
  4766. invited talks, and to have informal evening gatherings designed to further
  4767. enhance the opportunity for information exchange. We especially encourage
  4768. contributions of a 'practical experience' nature, since this is likely to
  4769. be of the most use to the many people who are involved in cluster computing,
  4770. and will also be complimentary to the many conferences that stress more the
  4771. academic side of computing and computer/computational science research.
  4772.  
  4773. The tentative outline schedule for the workshop for Tuesday through Thursday
  4774. is included below. We will adjust it depending upon the number of
  4775. contributed papers.
  4776.  
  4777. NEW FOR THIS YEAR will be a special tutorial/vendor day, Monday, December 6.
  4778. The tentative program for that day is attached below. There will be no extra
  4779. charge for registered workshop attendees for the tutorial/vendor day.
  4780.  
  4781. Please register for the workshop using the form attached below. We encourage
  4782. as many attendees as possible to plan to make a presentation at the workshop.
  4783. We do ask that speakers plan to address topics within the scope outlined
  4784. above. Please send us a short abstract describing your talk, so we can plan an
  4785. appropriate place in the schedule. An announcement of the schedule of
  4786. speakers will be distributed as soon as possible. Within the limits of
  4787. available time, we would like to accommodate as many speakers as practicable.
  4788. PLEASE SUBMIT ABSTRACTS BY MONDAY, NOVEMBER 1, 1993.
  4789.  
  4790. The 'proceedings' of the workshop will be published via anonymous ftp. We will
  4791. request each speaker to send us an appropriate electronic version of his
  4792. talk (ascii, postscript, tex, latex, troff, etc.). These will then be placed
  4793. on the machine ftp.scri.fsu.edu for further distribution. The proceedings of
  4794. the 1991 and 1992 meetings are already on the machine.
  4795.  
  4796. Any questions or requests can be sent via email to 
  4797. cluster-workshop@scri.fsu.edu or to one of the organizers. SCRI can be
  4798. reached by phone at (904)-644-1010.
  4799.  
  4800. ==============================================================================
  4801.  
  4802.                          OUTLINE SCHEDULE
  4803.  
  4804. Monday, December 6
  4805.  8:00 am - 10:00 pm  Tutorial/Vendor Program - Conference Center
  4806.      (see detailed schedule below)
  4807.  6:00 - 8:00 pm Registration and Reception - Radisson Hotel
  4808.  
  4809. Tuesday, December 7
  4810.  
  4811.  7:30 -  8:30   Continental Breakfast and Registration - Conference Center
  4812.  
  4813.  8:30 -  9:15   Invited Speaker Number 1
  4814.  9:15 - 10:00   Invited Speaker Number 2
  4815.  
  4816. 10:00 - 10:30   Break
  4817.  
  4818. 10:30 - 12:00   Session 1
  4819. 10:30 - 12:00   Session 2
  4820.  
  4821. 12:00 -  1:00   Lunch
  4822.  
  4823.  1:00 -  3:00   Plenary Session
  4824.  
  4825.  3:00 -  3:30   Break
  4826.  
  4827.  3:30 -  5:30   Session 3
  4828.  3:30 -  5:30   Session 4
  4829.  
  4830.  6:30 - 10:00   Hosted Reception at SCRI
  4831.  
  4832.  6:30 -  8:00   Demos at SCRI
  4833.  
  4834.  8:00 -  9:30   Moderated Session
  4835.  
  4836. Wednesday, December 8
  4837.  
  4838.  7:30 -  8:30   Continental Breakfast and Registration - Conference Center
  4839.  
  4840.  8:30 -  9:15   Invited Spekaer Number 3
  4841.  9:15 - 10:00   Invited Speaker Number 4
  4842.  
  4843. 10:00 - 10:30   Break
  4844.  
  4845. 10:30 - 12:00   Session 5
  4846. 10:30 - 12:00   Session 6
  4847.  
  4848. 12:00 -  1:00   Lunch
  4849.  
  4850.  1:00 -  3:00   Session 7
  4851.  1:00 -  3:00   Session 8
  4852.  
  4853.  3:00 -  3:30   Break
  4854.  
  4855.  3:30 -  6:00   Session 9
  4856.  3:30 -  6:00   Session 10
  4857.  
  4858.  6:30 - 10:00   Hosted Reception at SCRI
  4859.  
  4860.  6:30 -  8:00   Demos at SCRI
  4861.  
  4862.  8:00 -  9:30   Moderated Session
  4863.  
  4864.  
  4865. Thursday, December 9
  4866.  
  4867.  7:30 -  8:30   Continental Breakfast - Conference Center
  4868.  
  4869.  8:30 - 10:00   Session 11
  4870.  8:30 - 10:00   Session 12
  4871.  
  4872. 10:00 - 10:30   Break
  4873.  
  4874. 10:30 - 12:00   Session 13
  4875. 10:30 - 12:00   Session 14
  4876.  
  4877. 12:00           Workshop Ends
  4878.  
  4879. ==============================================================================
  4880.  
  4881.                           Cluster Workshop 93
  4882.                           Tutorial/Vendor Day
  4883.                          FSU Conference Center
  4884.                         Monday, December 6, 1993
  4885.  
  4886.    For information contact Louis Turcotte (turcotte@bulldog.wes.army.mil)
  4887.  
  4888. Sponsors:  Hewlett-Packard (confirmed)
  4889.            others          (invited)
  4890.  
  4891.  7:45 -  8:00  Gather (Refreshments)
  4892.  
  4893.  8:00 -  8:30  Welcome/Intro/Overview of day
  4894.              o Dennis Duke (SCRI)                (Confirmed)
  4895.                  o Louis Turcotte (MSU/ERC)            (Confirmed)
  4896.  
  4897.  8:30 -  9:30  Overview of Batch Environments (Tutorial)
  4898.          o Michael Nelson (NASA Langley Research Center)(Confirmed)
  4899.  
  4900.  9:30 - 10:00  Break (Refreshments)
  4901.  
  4902. 10:00 - 12:00  Batch product presentations
  4903.                  o Condor: Miron Livny (UofWisc/Madison)    (Confirmed)
  4904.                  o DQS: Dennis Duke (SCRI)            (Confirmed)
  4905.                  o LoadLeveler: (IBM)                (Confirmed)
  4906.                  o LSF: Songnian Zhou (Platform Computing)    (Confirmed)
  4907.                  o NQS: (Sterling Software)            (Invited)
  4908.                  o TaskBroker: (HP)                (Confirmed)
  4909.  
  4910. 12:00 -  1:00  Lunch (Box)
  4911.  
  4912.  1:00 -  3:00  Overview of Parallel Environments (Tutorial)
  4913.                  o Sudy Bharadwaj (SCA)                (Confirmed)
  4914.                  o Tim Mattson (Intel)                (Confirmed)
  4915.                  o Doug Elias (Cornell Theory Center)        (Confirmed)
  4916.  
  4917.  3:00 -  3:30  Break (Refreshments)
  4918.  
  4919.  3:30 -  5:30  Parallel product presentations 
  4920.                  o Linda: (SCA)                    (Confirmed)
  4921.                  o PAMS: Wayne Karpoff 
  4922.            (Myrias Computer Technologies)        (Confirmed)
  4923.                  o p4: Ewing Lusk                 (Confirmed)
  4924.            (Argonne National Laboratory)
  4925.                  o Express: Adam Kolawa (Parasoft)        (Confirmed)
  4926.                  o PVM: Vaidy Sunderam (Emory University)    (Confirmed)
  4927.                  o xHPF: Bob Enk (Applied Parallel Research)    (Confirmed)
  4928.  
  4929.  7:00 - 10:00  Hardware vendor presentations and refreshments
  4930.                  o Convex: Brian Allison            (Confirmed)
  4931.                  o DEC:                      (Confirmed)
  4932.                  o HP: Mark Pacelle                (Confirmed)
  4933.                  o IBM:                      (Confirmed)
  4934.                  o SGI:                      (Invited)
  4935.                  o SUN:                      (Invited)
  4936.  
  4937. ===============================================================================
  4938.  
  4939. REGISTRATION AND HOTEL INFORMATION
  4940.  
  4941. WORKSHOP ON RISC CLUSTER COMPUTING
  4942. December 7-9, 1993
  4943.  
  4944. PLEASE TYPE OR PRINT                                                 
  4945.  
  4946. Name _____________________________________
  4947.  
  4948. Social Security Number ___________________
  4949. (your SSN is optional, but without it any request for a registration refund
  4950.  will be delayed)
  4951.  
  4952. Company __________________________________                           
  4953.  
  4954. Address/Mailstop __________________________________________________  
  4955.  
  4956. City/State/Zip/Country ____________________________________________  
  4957.  
  4958. Phone (___)______________________
  4959.  
  4960. Email address _______________________________________  
  4961.  
  4962. Workshop Program Number:  1902694
  4963.  
  4964. The registration fee for the workshop is $145, and includes three
  4965. continental breakfasts, Tuesday and Wednesday lunches, morning and afternoon 
  4966. break refreshments, and the food and drink for the evening sessions. There
  4967. is no extra charge for the Monday tutorial/vendor day, but attendees for
  4968. that day must be registered for the whole workshop.
  4969.  
  4970. _____ Check here if you will attend the Monday tutorials.
  4971.  
  4972. If you want to pay by check, please print out and fill in the above 
  4973. registration form, including especially the Workshop Program Number, and
  4974. return the registration form and (payable to FSU) fee to:
  4975.  
  4976. Center for Professional Development and Public Service
  4977. Conference Registrar
  4978. Florida State University
  4979. Tallahassee, Florida 32306-2027
  4980.  
  4981. If you want to register by credit card, you may register by email by sending
  4982. back an edited form of the above registration information, as well as the
  4983. following credit card information:
  4984.  
  4985. Credit Card Name (Mastercard or Visa ONLY)_____________________________
  4986.  
  4987. Credit Card Number ___________________________
  4988.  
  4989. Name (as it appears on card) __________________________________
  4990.  
  4991. Expiration Date of Card _____________________
  4992.  
  4993. There is an additional 2% charge by the University for credit card
  4994. registrations (bringing the required total to $148).
  4995.  
  4996. Email registrations, and all other inquiries about the workshop, may be
  4997. sent to:
  4998. email: cluster-workshop@scri.fsu.edu, or
  4999. fax:   (904)-644-0098, attention of Pat Meredith
  5000.  
  5001.  
  5002. Hotel Information:
  5003.  
  5004. The workshop hotel is the Radisson, which is within walking distance of
  5005. the conference center and the FSU campus. Rooms are $60 per night,
  5006. single or double, and reservations should be made by November 10. Be sure to
  5007. mention Cluster Workshop '93 to get the special rate.
  5008.  
  5009. Radisson Hotel
  5010. 415 North Monroe Street
  5011. Tallahassee, FL 32301 
  5012. Phone and Fax: (904) 224-6000
  5013.  
  5014. Approved: parallel@hubcap.clemson.edu
  5015. Follow-up: comp.parallel
  5016. Path: bounce-back
  5017. Newsgroups: comp.parallel
  5018. From: meadorj@watt.oedison.com (Jim C. Meador)
  5019. Subject: Massive Parallel Processors
  5020. Organization: Ohio Edison
  5021.  
  5022.  What business functions are being met utilizing massively
  5023.  parallel computing?  Is the main use in the area of super
  5024.  servers for data base access?  I would be interested in
  5025.  hearing any success/failure stories also.  Thanks!
  5026. =================================================================
  5027. * Jim C. Meador                     *   Ohio Edison Company     *
  5028. * Coordinator, Advanced Information *   76 South Main St.       *
  5029. *     Technology Projects           *   Akron, OH  44308        *
  5030. Approved: parallel@hubcap.clemson.edu
  5031. Follow-up: comp.parallel
  5032. Path: bounce-back
  5033. Newsgroups: comp.parallel
  5034. From: eugene@nas.nasa.gov (Eugene N. Miya)
  5035. Subject: 12 ways
  5036.  
  5037. >Subject: [l/m 3/17/91] Ways to fool the masses with benchmarks    (15/28) c.be. FAQ
  5038. >Reply-To: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  5039. >Organization: NASA Ames Research Center, Moffett Field, CA
  5040. Keywords: who, what, where, when, why, how
  5041.  
  5042. 15    12 Ways to Fool the Masses with Benchmarks    <This panel>
  5043. 16    SPEC
  5044. 17    Benchmark invalidation methods
  5045. 18
  5046. 19    WPI Benchmark
  5047. 20    Equivalence
  5048. 21    TPC
  5049. 22
  5050. 23
  5051. 24
  5052. 25    Ridiculously short benchmarks
  5053. 26    Other miscellaneous benchmarks
  5054. 27
  5055. 28    References
  5056. 1    Introduction to the FAQ chain and netiquette
  5057. 2
  5058. 3    PERFECT Club
  5059. 4
  5060. 5    Performance Metrics
  5061. 6
  5062. 7    Music to benchmark by
  5063. 8    Benchmark types
  5064. 9    Linpack
  5065. 10
  5066. 11    NIST source and .orgs
  5067. 12    Measurement Environments
  5068. 13    SLALOM
  5069. 14
  5070.  
  5071. >From David Bailey et al.
  5072.  
  5073. Quote only 32-bit performance results, not 64-bit results.
  5074.  
  5075. Present performance figures for an inner kernel as the performance of the
  5076. entire application.
  5077.  
  5078. Quietly employ assembly code and other low-level language constructs.
  5079.  
  5080. Scale up the problem size with the number of processors, but omit any
  5081. mention of this fact.
  5082.  
  5083. Quote performance results projected to a full system.
  5084.  
  5085. Compare your results against scalar, unoptimized code on Crays.
  5086.  
  5087. When direct run time comparisons are required, compare with an old code
  5088. on an obsolete system.
  5089.  
  5090. If megaFLOPS rates must be quoted, base the operation count on the parallel
  5091. implementation, not on the best sequential implementation.
  5092.  
  5093. Quote performance in terms of processor utilization, parallel speedup or
  5094. megaFLOPS per dollar.
  5095.  
  5096. Multilate the algorithm used in the parallel implementation to match
  5097. the architecture.
  5098.  
  5099. Measure parallel run times on a dedicated system, but measure conventional
  5100. run times in a busy environment.
  5101.  
  5102. If all else fails, show pretty pictures and animated videos, and don't talk
  5103. about performance.
  5104.  
  5105. Ref. 1
  5106. NAS TR #
  5107.  
  5108. Ref. 2
  5109. %A David Bailey
  5110. %T Twelve Ways to Fool the Masses when Giving Performance Results on
  5111. Parallel Computers
  5112. %J Supercomputing Review
  5113. %V 4
  5114. %N 8
  5115. %D August 1991
  5116. %P 54-55
  5117.  
  5118. References
  5119. Darrell Huff, How to Lie with Statistics
  5120.     How to Lie with Maps
  5121.  
  5122. Gordon Bell's 11 rules of supercomputer design:
  5123.  
  5124. 1) Performance, performance, performance.
  5125. 2) Everything matters.
  5126. 3) Scalar matter most.
  5127. 4) Provide vectors as price allows.
  5128. 5) Avoid holes in performance.
  5129. 6) Place peaks in performance.
  5130.  
  5131. 7) Provide a decade of addressing.
  5132. 8) Make it easy to use.
  5133. 9) Build on others work.
  5134. 10) Design for the next one (and do it again) [three times]
  5135. 11) Have slack resources.
  5136.  
  5137.                    ^ A  
  5138.                 s / \ r                
  5139.                m /   \ c              
  5140.               h /     \ h            
  5141.              t /       \ i          
  5142.             i /         \ t        
  5143.            r /           \ e      
  5144.           o /             \ c    
  5145.          g /               \ t  
  5146.         l /                 \ u
  5147.        A /                   \ r
  5148.         <_____________________> e   
  5149.                 Language
  5150.  
  5151.  
  5152.  
  5153. Approved: parallel@hubcap.clemson.edu
  5154. Follow-up: comp.parallel
  5155. Path: bounce-back
  5156. Newsgroups: comp.parallel
  5157. From: gross@noether.ucsc.edu (Mike Gross)
  5158. Subject: Parallel Fourier transforms?
  5159. Date: 8 Oct 1993 21:38:58 GMT
  5160. Organization: University of California, Santa Cruz
  5161. Nntp-Posting-Host: noether.ucsc.edu
  5162. Keywords: FFT,integral transforms
  5163.  
  5164.    I need to perform a real Fourier transform on an i860 supercomputer with
  5165. local memory only. My array will not fit in a single processor's local memory.
  5166. Does anyone out there know how to properly fragment my array without losing the
  5167. long wavelength components in the transformed array?
  5168.    Better yet, are there any publicly available efficient parallel FFT routines
  5169. lying around? It seems like I wouldn't be the first person to run into this
  5170. problem.
  5171.  
  5172.    If you post a reply, please e-mail it to me also.
  5173.  
  5174.    Many thanks.
  5175.  
  5176. Mike Gross
  5177.                              ```
  5178.                             (o o)
  5179. ------------------------oOO--(_)--OOo------------------------------------------
  5180. Michael A. Gross      |               |         /|
  5181. Approved: parallel@hubcap.clemson.edu
  5182. Follow-up: comp.parallel
  5183. Path: bounce-back
  5184. Newsgroups: comp.parallel
  5185. From: johan@sys.toronto.edu (Johan Larson)
  5186. Subject: coverage of parallel processing market?
  5187. Organization: CSRI, University of Toronto
  5188.  
  5189. I am a graduate student at the University of Toronto,
  5190. working on a project for SIGPAR, the parallel 
  5191. processing discussion group.
  5192. The project is a survey of the parallel processing market, 
  5193. focusing on commercial rather than research issues.
  5194.  
  5195. Are there any periodicals which offer consistent coverage
  5196. of the parallel processing market?
  5197. Are there any other sources which I should consult?
  5198.  
  5199. Approved: parallel@hubcap.clemson.edu
  5200. Follow-up: comp.parallel
  5201. Path: bounce-back
  5202. Newsgroups: comp.arch,comp.parallel
  5203. From: achien@achien.cs.uiuc.edu (Andrew Chien)
  5204. Subject: ISCA '94 Call for Papers 10/15 Deadline
  5205. Organization: University of Illinois, Dept. of Comp. Sci., Urbana, IL
  5206.  
  5207.                                 CALL FOR PAPERS
  5208.                   The 21st Annual International Symposium on
  5209.                              Computer Architecture
  5210.                                Chicago, Illinois
  5211.                             Dates: April 18-21, 1994
  5212.  
  5213.                                   Sponsored by
  5214.                   Association for Computing Machinery/SIGARCH
  5215.                              IEEE Computer Society
  5216.             Institute of Electrical and Electronics Engineers (IEEE)
  5217.  
  5218.                               In Cooperation with
  5219.                  The University of Illinois at Urbana-Champaign
  5220.  
  5221.  
  5222.  
  5223.      Eight copies of  a  double-spaced  manuscript,  in  English,  and  not
  5224.      exceeding  6000  words in length, should be sent to the Program Chair.
  5225.      Papers will be accepted for consideration until October 15,  1993.   A
  5226.      single  cover  sheet  should  be included which contains: paper title,
  5227.      full names, affiliations, complete addresses, phone and  FAX  numbers,
  5228.      and  email  addresses  of  the  authors,  as well as a 100 to 150 word
  5229.      abstract and a list of up to five keywords.  Because the  identity  of
  5230.      authors  will  not  be  revealed  to  the referees, authors' names and
  5231.      affiliations must appear only on the cover sheet.  Authors must  avoid
  5232.      references and citations that compromise anonymity.
  5233.  
  5234.      Notification of acceptance for both regular  and  other  presentations
  5235.      will be mailed by January 5, 1994.  Authors of papers accepted as reg-
  5236.      ular papers will be requested to submit a final, camera-ready copy  by
  5237.      February 15, 1994. for inclusion in the proceedings.
  5238.  
  5239.      Papers are solicited on any aspects of Computer  Architecture.   Topic
  5240.      areas include, but are not limited to,
  5241.  
  5242.        - Novel architectures and computing techniques
  5243.        - Multiprocessors, multicomputers, and distributed architectures
  5244.        - Superscalar, Superpipelined, and VLIW processors
  5245.        - Very-high performance architectures
  5246.        - Massively parallel architectures
  5247.        - Architectural implications of application characteristics
  5248.        - Non-numeric architectures
  5249.        - Technology impact on architecture
  5250.        - Language and operating systems support
  5251.        - Application-specific architectures
  5252.        - Performance evaluation and measurement
  5253.        - Memory systems
  5254.  
  5255.      As always, papers will be judged on their scientific merit and antici-
  5256.      pated  interest to conference attendees.  It is understood that papers
  5257.      in new areas are likely to contain less quantitative  evaluations  and
  5258.      comparisons than those in more established areas.
  5259.  
  5260.      As in previous years, a series of tutorials and workshops will be held
  5261.      immediately  preceding  and/or  following the symposium.  Tutorial and
  5262.      workshop proposals will be accepted until November 1, 1993.
  5263.  
  5264.      If you wish to organize a full or 1/2 day tutorial, please send to the
  5265.      Tutorials  Co-Chairs  five  copies  of  a detailed proposal, including
  5266.      tutorial title, outline, brief description of topics  to  be  covered,
  5267.      intended  audience,  assumed  attendee  background,  and  the name(s),
  5268.      affiliation(s), and resume(s) of the speaker(s).
  5269.  
  5270.      If you wish to organize a workshop, please send to either one  of  the
  5271.      the  Workshops Co-Chairs five copies of a detailed proposal, including
  5272.      workshop title, description of its scope,  list  of  invited  partici-
  5273.      pants, and name(s) and affiliation(s) of the organizer(s).
  5274.  
  5275.      Steering Committee:
  5276.  
  5277.        Dharma P. Agrawal, North Carolina State University, Raleigh
  5278.        Forest Baskett, Silicon Graphics
  5279.        Lubomir Bic, University of California, Irvine
  5280.        Edward S. Davidson, University of Michigan
  5281.        John L. Hennessy, Stanford University
  5282.        Yale N. Patt, University of Michigan
  5283.        Alan J. Smith, University of California, Berkeley
  5284.  
  5285.      General Co-Chairs:
  5286.  
  5287.        Wen-mei W. Hwu
  5288.        Coordinated Science Laboratory
  5289.        University of Illinois
  5290.        1308 W. Main St.
  5291.        Urbana, IL 61801
  5292.        email: hwu@crhc.uiuc.edu
  5293.  
  5294.        Pen-Chung Yew
  5295.        Center for Supercomputing Research and Development
  5296.        University of Illinois
  5297.        1308 W. Main St.
  5298.        Urbana, IL 61801
  5299.        email: yew@csrd.uiuc.edu
  5300.  
  5301.      Program Chair: Janak H. Patel
  5302.        Coordinated Science Laboratory
  5303.        University of Illinois
  5304.        1308 W. Main St.
  5305.        Urbana, IL 61801
  5306.        email: patel@crhc.uiuc.edu
  5307.  
  5308.      Tutorials Chair: Prith Banerjee
  5309.        Coordinated Science Laboratory
  5310.        University of Illinois
  5311.        1308 W. Main St.
  5312.        Urbana, IL 61801
  5313.        email: banerjee@crhc.uiuc.edu
  5314.  
  5315.      Workshops Co-Chairs:
  5316.  
  5317.        Michael J. Foster
  5318.        Division of Microelectronics Information
  5319.           Processing Systems,
  5320.        National Science Foundation,
  5321.        1800 G Street, NW
  5322.        Washington, DC 20550
  5323.        email: mfoster@note.nsf.gov
  5324.  
  5325.        Kai Li
  5326.        Department of Computer Science
  5327.        35 Olden Street,
  5328.        Princeton University,
  5329.        Princeton, NJ 08544
  5330.        email:li@cs.princeton.edu
  5331.  
  5332.      Finance Chair: Jose A. Fortes
  5333.        School of Electrical Engineering
  5334.        Purdue University
  5335.        email: fortes@ecn.purdue.edu
  5336.  
  5337.      Registration Chair:
  5338.        Josep Torrellas
  5339.        Center for Supercomputing Research and Development
  5340.        University of Illinois
  5341.        1308 West Main Street
  5342.        Urbana, IL 61801
  5343.        email: torrella@csrd.uiuc.edu
  5344.  
  5345.      Publicity and Publication Chair:
  5346.        Andrew A. Chien
  5347.        Computer Science Department
  5348.        University of Illinois
  5349.        1304 W. Springfield Ave.
  5350.        Urbana, IL 61801
  5351.        email: achien@cs.uiuc.edu
  5352.  
  5353.      Local Arrangement Chair:
  5354.        John R. Barr
  5355.        Software Systems Research Laboratory
  5356.        Corporate Software Research and Development
  5357.        Motorola, Inc.
  5358.        email: barr@mot.com
  5359.  
  5360. -- 
  5361. ==========================
  5362. Professor Andrew A. Chien    1304 W. Springfield Avenue
  5363. Department of Computer Science    Urbana, IL  61801
  5364. University of Illinois        Email: achien@cs.uiuc.edu
  5365.                 Phone: (217)333-6844
  5366.                 FAX:   (217)333-3501
  5367.  
  5368. Approved: parallel@hubcap.clemson.edu
  5369. Follow-up: comp.parallel
  5370. Path: bounce-back
  5371. Newsgroups: comp.parallel
  5372. From: rick@cs.arizona.edu  (Rick Schlichting)
  5373. Subject: Kahaner Report: GRAPE Computer
  5374. Followup-To: comp.research.japan
  5375. Date: 10 Oct 1993 09:39:27 -0700
  5376. Organization: University of Arizona CS Department, Tucson AZ
  5377.  
  5378.  
  5379.   [Dr. David Kahaner is a numerical analyst on sabbatical to the 
  5380.    Office of Naval Research-Asia (ONR Asia) in Tokyo from NIST.  The 
  5381.    following is the professional opinion of David Kahaner and in no 
  5382.    way has the blessing of the US Government or any agency of it.  All 
  5383.    information is dated and of limited life time.  This disclaimer should 
  5384.    be noted on ANY attribution.]
  5385.  
  5386.   [Copies of previous reports written by Kahaner can be obtained using
  5387.    anonymous FTP from host cs.arizona.edu, directory japan/kahaner.reports.]
  5388.  
  5389. From: 
  5390.  Dr. David K. Kahaner
  5391.  US Office of Naval Research Asia
  5392.  (From outside US):  23-17, 7-chome, Roppongi, Minato-ku, Tokyo 106 Japan
  5393.  (From within  US):  Unit 45002, APO AP 96337-0007
  5394.   Tel: +81 3 3401-8924, Fax: +81 3 3403-9670
  5395.   Email: kahaner@cs.titech.ac.jp
  5396. Re: GRAPE Computer
  5397. 4 Oct 1993
  5398. This file is named "grape.93"
  5399.  
  5400. ABSTRACT. Progress in the development of the GRAPE (GRAvity PipE)
  5401. computer, developed at the University of Tokyo, for simulation of N-body
  5402. systems. Newest version will have TFLOPs performance, using 2000
  5403. 600MFLOP chips.
  5404.  
  5405. Approximately two years ago I reported on efforts at the University of
  5406. Tokyo to develop a special purpose parallel computer for many-body
  5407. calculations arising in astrophysical simulations (see "grape.91", 22
  5408. Oct 1991). At that time a version capable of 10GFLOPs was being put
  5409. together.  Recently I asked the GRAPE team about their subsequent
  5410. progress. They have been gracious to assemble a collection of
  5411. English abstracts of current work that describes their activity much
  5412. better than I could. These abstracts are reproduced below thanks to the
  5413. cooperation of many scientists in this project, including Prfs Makino,
  5414. Sugimoto, and others. I would especially like to thank
  5415.               Dr. Makoto Taiji
  5416.               Dept of Earth Science & Astronomy
  5417.               College of Arts and Sciences
  5418.               University of Tokyo
  5419.               Komaba 3-8-1, Meguro-ku, Tokyo 153 Japan
  5420.                Tel/Fax: +81 3 3465-3925
  5421.                Email: TAIJI@KYOHOU.C.U-TOKYO.AC.JP
  5422. for coordinating the gathering of these abstracts. 
  5423.  
  5424. A number of these papers will appear in the Proceedings of 27th Hawaii
  5425. International Conference on System Sciences (HICSS-27), currently in
  5426. press. Others appear in a special issue of the Publ Astron Soc Japan,
  5427. Vol 45, 1993. Still others will appear in a another special issue of
  5428. PASJ in the fourth quarter of 1994 or the first quarter of 1995 based on
  5429. the proceedings of workshop, which was held at U-Tokyo's Komaba campus.
  5430. The proceedings of that workshop will appear in March 1994. The material
  5431. for these abstracts were given to me in TeX/LaTeX form. Mostly I have
  5432. left some TeX commands but removed others for readability.
  5433.  
  5434.  
  5435. --------------------------------------------------------------------------
  5436.  
  5437.      HARP chip : A 600 Mflops Application-Specific LSI
  5438.           for Astrophysical $N$-body Simulations
  5439.  
  5440.         Makoto Taiji, Junichiro Makino*, Eiichiro Kokubo,
  5441.         Toshikazu Ebisuzaki, and Daiichiro Sugimoto
  5442.  
  5443.          Department of Earth Science and Astronomy,
  5444.          *Department of Information Science and Graphics,
  5445.          College of Arts and Sciences, University of Tokyo
  5446.          Komaba 3-8-1, Meguro-ku, Tokyo 153, Japan
  5447.           Phone : 81-3-3465-3925, Fax : 81-3-3465-3925
  5448.           Internet : TAIJI@KYOHOU.C.U-TOKYO.AC.JP
  5449.  
  5450. ABSTRACT: We have developed an application-specific LSI, the HARP
  5451. (Hermite AcceleratoR Pipe) chip, which will be used in GRAPE-4, a
  5452. massively-parallel special-purpose computer for astrophysical $N$-body
  5453. simulations.  The HARP chip calculates the gravitational interaction
  5454. between particles.  It consists of 15 floating point arithmetic units
  5455. and one unit for function evaluation.  The HARP chip performs about 20
  5456. floating point operations per clock cycle and works at 30 MHz in the
  5457. worst case.  Therefore, the performance of the HARP chip exceeds 600
  5458. Mflops.  It is made using 1.0 $\mu$m CMOS cell-based ASIC (LSI Logic,
  5459. LCB007).  The die size is 14.6 mm $\times$ 14.6 mm and the total gate
  5460. count is 95,000.  The power consumption is 5W at operating voltage of
  5461. 5V. We have examined successful operations of the sample chip up to 50
  5462. MHz. GRAPE-4 will consist of about 2000 HARP chips using multi-chip
  5463. modules.  The peak speed of GRAPE-4 will exceed 1 Tflops even in the
  5464. worst case, and will reach around 1.8 Tflops in the typical case.
  5465.  
  5466. -----------------------------------------------------------------------
  5467.  
  5468.         HARP-1: A Special-Purpose Computer
  5469.         for $N$-body Simulation with the Hermite Integrator
  5470.  
  5471.         Eiichiro Kokubo, Junichiro Makino*, and Makoto Taiji
  5472.  
  5473.          Department of Earth Science and Astronomy,
  5474.          *Department of Information Science and Graphics,
  5475.          College of Arts and Sciences, University of Tokyo
  5476.          Komaba 3-8-1, Meguro-ku, Tokyo 153, Japan
  5477.           Phone : 81-3-3465-3925, Fax : 81-3-3465-3925
  5478.           Internet : KOKUBO@KYOHOU.C.U-TOKYO.AC.JP
  5479.  
  5480. ABSTRACT: We have designed and built HARP (Hermite Accelerator
  5481. Pipeline)-1, a special-purpose computer for solving astronomical
  5482. $N$-body problems with high accuracy using the Hermite integrator.  The
  5483. Hermite integrator uses analytically calculated derivatives of the
  5484. acceleration, in addition to the acceleration, to integrate the orbit of
  5485. particles.  It has a better stability and allows a longer timestep than
  5486. does an Adams-Bashforth-Moulton type predictor-corrector scheme of the
  5487. same error order, which has been widely used for astronomical $N$-body
  5488. problems.  HARP-1 is a specialized computer for accelerating this
  5489. Hermite scheme.  It has a 24-stage pipeline to perform  the calculation
  5490. of the acceleration and its time derivative, which is the most expensive
  5491. part of the Hermite scheme.  Its structure is quite similar to GRAPE
  5492. (GRAvity PipE).  The only difference is that it calculates the time
  5493. derivative of the acceleration, in addition to the acceleration.  The
  5494. pipeline calculates one gravitational interaction at every three clock
  5495. cycles.  Thus, the acceleration and its time derivative of a particle
  5496. are calculated in $3N + 24$ clock cycles, where $N$ is the number of
  5497. particles and 24 is the pipeline latency.  The peak speed of HARP-1 is
  5498. 160Mflops.
  5499.  
  5500. -------------------------------------------------------------------------
  5501.  
  5502.                  GRAPE Project: An Overview
  5503.  
  5504. Toshikazu EBISUZAKI, Junichiro MAKINO, Toshiyuki FUKUSHIGE, Makoto TAIJI,
  5505. Daiichiro SUGIMOTO, Tomoyoshi ITO and Sachiko K. OKUMURA
  5506.  
  5507.      Department of Earth Science and Astronomy
  5508.      and Department of Information Science and Graphics,
  5509.      College of Arts and Sciences, The University of Tokyo, Komaba, 
  5510.        Meguro-ku, Tokyo 153
  5511.  
  5512.  
  5513. ABSTRACT: We are developing a series of special-purpose computers, GRAPE
  5514. (GRAvity PipE), for the simulation of $N$-body systems, such as
  5515. proto-planetary systems, globular clusters, galaxies, and clusters of
  5516. galaxies.  In simulations of $N$-body systems, almost all computing time
  5517. is consumed in calculating the gravitational force between particles.
  5518. GRAPE calculates the forces at high speed using hard-wired pipelines.
  5519. The host computer, which is connected to GRAPE, sends the positions of
  5520. particles to GRAPE. Then, GRAPE calculates the force exerted on a
  5521. particle and sends this value back to the host computer.  Using the
  5522. force calculated by GRAPE, the host computer then integrates the orbits
  5523. of the particles.  We have already developed six different machines
  5524. (GRAPE-1, GRAPE-1A, GRAPE-2, GRAPE-2A, GRAPE-3, and GRAPE-3A), which are
  5525. divided into low- and high-accuracy types.  Those machines with odd
  5526. numbers (GRAPE-1, GRAPE-1A, GRAPE-3, and GRAPE-3A) are among the
  5527. low-accuracy type.  They were designed for simulations of collisionless
  5528. systems, such as galaxies, in which only the mean potential plays an
  5529. important role.  Simulations of such systems do not require high
  5530. accuracy in the force calculation. GRAPE-1 and GRAPE-1A are machines
  5531. made by wire-wrapping.  GRAPE-3 is a highly parallel system with 48
  5532. full-custom LSI chips (GRAPE chip). Each LSI chip has one GRAPE
  5533. pipeline.  The sustained speed of GRAPE-3 is 10 Gflops for a 200,000
  5534. particle simulation.  The machines with even numbers (GRAPE-2 and
  5535. GRAPE-2A) are among the high-accuracy type. They were designed for
  5536. collisional systems, such as globular clusters and proto-planetary
  5537. systems, in which close encounters play an important role.  In
  5538. simulations of such collisional systems, we must calculate the force
  5539. accurately.  GRAPE-2 was the first machine of the high-accuracy type.
  5540. GRAPE-2A was designed for applications involving molecular-dynamics
  5541. simulations, as well as gravitational $N$-body simulations. GRAPE-2A can
  5542. calculate  the  forces of an arbitrary  functional form  using
  5543. interpolation tables.  The computational speed of GRAPE-2A is
  5544. 180~Mflops.  We are now developing a highly parallel machine, GRAPE-4,
  5545. in which many GRAPE pipelines (about 1,600) will work in parallel.}
  5546.  
  5547. ---------------------------------------------------------------------------
  5548.  
  5549.  
  5550.             The GRAPE Software System
  5551.  
  5552.        Junichiro MAKINO and Yoko FUNATO
  5553.  
  5554.        Department of Information Science and Graphics,
  5555.        and Department of Earth Science and Astronomy,
  5556.        College of Arts and Sciences, The University of Tokyo,
  5557.        Meguro-ku, Tokyo 153
  5558.  
  5559.       (Received  July 21, 1992; Accepted September 21, 1992)
  5560.  
  5561. ABSTRACT: We describe the software system used for GRAPE processors,
  5562. special-purpose computers for gravitational $N$-body simulations.  In
  5563. gravitational $N$-body simulations, almost all of the calculation time
  5564. is spent to calculate the gravitational force between particles. The
  5565. GRAPE hardware calculates the gravitational force between particles
  5566. using hardwired pipelines with a speed in the range of 100 Mflops to 10
  5567. Gflops, depending on the model.  All GRAPE hardwares are connected to
  5568. general-purpose workstations, on which the user program runs. In order
  5569. to use the GRAPE hardware, a user program calls several library
  5570. subroutines that actually control GRAPE.  In this paper, we present an
  5571. overview of the user interface of GRAPE software libraries and describe
  5572. how they work.  We also describe how the GRAPE system is used with
  5573. sophisticated algorithms, such as the tree algorithm or the individual
  5574. timestep algorithm.
  5575.  
  5576. --------------------------------------------------------------------------
  5577.  
  5578.  
  5579.      Highly Parallelized Special-Purpose Computer, GRAPE-3
  5580.  
  5581.       Sachiko K. OKUMURA}, Junichiro MAKINO, Toshikazu EBISUZAKI,
  5582.       Toshiyuki FUKUSHIGE, Tomoyoshi ITO, and Daiichiro SUGIMOTO
  5583.  
  5584.        Department of Earth Science and Astronomy,
  5585.        and Department of Information Science and Graphics
  5586.        College of Arts and Sciences
  5587.        The University of Tokyo, Komaba, Meguro-ku, Tokyo 153
  5588.              and
  5589.        Eiri HASHIMOTO, Koumei TOMIDA, and Noriaki MIYAKAWA
  5590.        FUJI XEROX Co., LTD,
  5591.        Naka, Atsugi, Kanagawa 243
  5592.  
  5593.        (Received July 15, 1992; accepted September 21, 1992)
  5594.  
  5595. ABSTRACT: We have developed a highly parallelized special-purpose
  5596. computer, GRAPE (GRAvity PipE)-3, for gravitational many-body
  5597. simulations. Its peak computing speed is equivalent to 15 Gflops. The
  5598. GRAPE-3 system comprises two identical boards connected to a host
  5599. computer (workstation) through the VME bus.  Each board has 24 custom
  5600. LSI chips(GRAPE chips) which calculate gravitational forces in parallel.
  5601. The calculation of the gravitational forces is easily parallelized,
  5602. since  the forces on different particles can be calculated
  5603. independently. One GRAPE chip running at a 10 MHz clock has a computing
  5604. speed equivalent to 0.3 Gflops;  the GRAPE-3 system with 48 GRAPE chips
  5605. thus achieves a peak speed of 15 Gflops. The sustained speed of the
  5606. GRAPE-3 system reached 10 Gflops-equivalent.
  5607.  
  5608. ----------------------------------------------------------------------------
  5609.  
  5610.  A Special-Purpose Computer for N-body Simulations: GRAPE-2A
  5611.  
  5612.        Tomoyoshi ITO, Junichiro MAKINO, Toshiyuki FUKUSHIGE,
  5613.        Toshikazu EBISUZAKI, Sachiko K. OKUMURA and Daiichiro SUGIMOTO
  5614.  
  5615.          Department of Earth Science and Astronomy,
  5616.          and Department of Information Science and Graphics,
  5617.          College of Arts and Sciences
  5618.          University of Tokyo, Komaba, Meguro-ku, Tokyo 153
  5619.  
  5620. ABSTRACT: We have developed GRAPE-2A, which is a back-end processor to
  5621. accelerate the simulations of gravitational N-body systems, such as
  5622. stellar clusters, proto planetary system, and the structure formation of
  5623. the universe.  GRAPE-2A calculates forces exerted on one particle from
  5624. other particles.  The host computer, which is connected to GRAPE-2A
  5625. through the VME bus, performs other calculations such as the time
  5626. integration.  In the simulation of gravitational N-body systems, almost
  5627. all computing time is consumed in the calculation of force between
  5628. particles.  GRAPE-2A performs this force calculation with a speed much
  5629. faster than that of a general-purpose computer.  GRAPE-2A can be used
  5630. for the cosmological N-body simulation with periodic boundary conditions
  5631. using the Ewald method, and for the molecular dynamics simulations of
  5632. proteins and crystals.  The computational speed of GRAPE-2A is  180
  5633. Mflops.
  5634.  
  5635. -----------------------------------------------------------------------
  5636.  
  5637.  
  5638.       HARP: A Special-Purpose Computer for $N$-body Problem
  5639.  
  5640.       Junichiro MAKINO, Eiichiro KOKUBO, and Makoto TAIJI
  5641.             (as above)
  5642.  
  5643.          (Received  Aug. 21, 1992; Accepted Nov. 16, 1992)
  5644.  
  5645. ABSTRACT: We present the concept of HARP (Hermite AcceleratoR Pipeline),
  5646. a special-purpose computer for solving $N$-body problem using the
  5647. Hermite integrator.  A Hermite integrator uses analytically calculated
  5648. derivatives of the acceleration, in addition to the  acceleration, to
  5649. integrate the orbit of a particle.  It has a better stability and allows
  5650. a longer timestep than does an Adams-Bashforth-Moulton type
  5651. predictor-corrector scheme of the same error order.  HARP is a
  5652. specialized computer for this type of Hermite scheme.  Its structure is
  5653. quite similar to GRAPE; the only difference is that it calculates the
  5654. time derivative of the acceleration, in addition to the acceleration.
  5655. We are now developing HARP-1, the first prototype machine with a peak
  5656. speed of 240 Mflops.  The massively parallel GRAPE-4 will be based on
  5657. this HARP architecture. Its speed will be about 1Tflops.
  5658.  
  5659. --------------------------------------------------------------------------
  5660.  
  5661.  
  5662.      WINE-1: Special-Purpose Computer for $N$-Body Simulations
  5663.            with a Periodic Boundary Condition
  5664.  
  5665.         Toshiyuki FUKUSHIGE, Junichiro MAKINO, Tomoyoshi ITO,
  5666.         Sachiko K.  OKUMURA, Toshikazu EBISUZAKI and Daiichiro SUGIMOTO
  5667.                   (as above)
  5668.  
  5669.          (Recieved 1992 July 31; accepted 1992 Octorber 6)
  5670.  
  5671. ABSTRACT: We have developped WINE-1 (Wave space INtegrator for Ewald
  5672. method), a special-purpose computer for $N$-body simulations with a
  5673. periodic boundary condition.  In $N$-body simulations with a periodic
  5674. boundary condition such as cosmological $N$-body simulations, we use the
  5675. Ewald method to calculate the gravitational interaction.  With the Ewald
  5676. method, we can calculate the interaction more accurately than a
  5677. calculation with other methods, such as the PM method, the P$^3$M
  5678. method, or the tree algorithm.  In the Ewald method, the total force
  5679. exerted on a particle is divided into contributions from real space and
  5680. wave-number space so that the infinite sum can converge exponentially in
  5681. both spaces.  WINE is a special-purpose computer used to calculate the
  5682. interaction in wave-number space.  WINE is connected to a host computer
  5683. via the VME bus.  We have developed the first machine, WINE-1.  It is
  5684. one board having a size of 38 cm by 40 cm, on which 31 LSI chips and 46
  5685. IC chips are wire-wrapped.  The peak speed of WINE-1 is equivalent to
  5686. 480 Mflops.  The summation in real space is calculated using a GRAPE
  5687. system, another special-purpose computer for the direct calculation of
  5688. the interparticle force.  For example, we can perform a cosmological
  5689. $N$-body simulation for $N$=80,000 (500 steps) within a week if we use
  5690. GRAPE-2A for the summation in real space and WINE-1 for that in
  5691. wave-number space.
  5692.  
  5693. --------------------------------------------------------------------------
  5694.  
  5695. Publ. Astron. Soc. Japan 45, 377-392 and Plate 2 (1993)
  5696.  
  5697. DREAM-1 : Special-Purpose Computer for Computational Fluid Dynamics
  5698.  
  5699. Yousuke Ohno, Junichiro Makino,* Izumi Hachisu, Munetaka Ueno, 
  5700. Toshikazu Ebisuzaki, Daiichiro Sugimoto, and Sachiko K. Okumura^1
  5701.  
  5702.  Department of Earth Science and Astronomy,
  5703. *Department of Information Science and Graphics,
  5704.  College of Arts and Sciences, The University of Tokyo,
  5705.  Meguro-ku, Tokyo 153
  5706.  
  5707.     and
  5708.  
  5709. Yoshihiro Chikada^2
  5710.  Nobeyama Radio Observatory,
  5711.  Minamimaki-mura,
  5712.  Minamisaku-gun, Nagano 384-13
  5713.  
  5714.  (Received 1992 August 10; accepted 1992 October 13)
  5715.  
  5716. 1  Present Address: Nobeyama Radio Observatory,
  5717.                     Minamimaki-mura, Minamisaku-gun, Nagano 384-13.
  5718. 2  Present Address: Nobeyama Astronomical Observatory,
  5719.                     Mitaka, Tokyo 181.
  5720.  
  5721. ABSTRACT: Based on the concept of DREAM (Disk REsource Array Machine),
  5722. we have developed a special-purpose computer for computational fluid
  5723. dynamics, i.e., the first model of DREAM, DREAM-1.  In computer
  5724. simulations of fluid dynamics, the number of grid points determines both
  5725. the resolution and accuracy.  On conventional computers, the number of
  5726. grid points is limited by the size of the main memory.  The essence of
  5727. the DREAM concept is to use magnetic disk units as the main memory
  5728. instead of silicon chips.  Thus, we are able to use a main memory that
  5729. is 100-times larger than that of silicon chips for the same cost.  DREAM
  5730. solves two difficulties of using magnetic disk units as the main memory.
  5731. First, the data-transfer speed of a disk unit is slower than that of the
  5732. silicon memory chips.  We solve this difficulty by accessing many disk
  5733. units in parallel and using a small cache.  Second is the long access
  5734. time of the disk unit.  In finite-difference calculations, we access the
  5735. data only in long vectors.  The access time therefore becomes
  5736. negligible.  DREAM-1 has one vector processing unit (VPU) and one
  5737. hard-disk unit.  The peak speed of VPU is 12 Mflops.  The capacity and
  5738. the data-transfer rate of the hard-disk unit are 400 Mbyte and 2 Mbyte
  5739. s$^{-1}$, respectively.  We implemented one- and two-dimensional fluid
  5740. dynamics codes on DREAM-1.  The sustained computing speed was 4 Mflops
  5741. for 1-D and 2.7 Mflops for 2-D.  The speed of 4 Mflops is the naked VPU
  5742. speed while the slow down to 2.7 Mflops of the 2-D simulations is due
  5743. mainly to the overhead of disk access.  We plan to increase the peak
  5744. speed of the VPU to 20 Mflops and to build 4 units.  These units are
  5745. connected in a one-dimensional ring network.  This parallel DREAM system
  5746. will have a peak speed of 80 Mflops and will be able to perform a
  5747. $(300)^3$ 3-D fluid calculation in 4--12 days.  We also discuss the
  5748. potential ability of DREAM: for example, the DREAM system can solve an
  5749. I/O neck of such observational instruments as a CCD-camera or a VLBI.
  5750.  
  5751.  
  5752. ---------------------------------------------------------------------------
  5753.  
  5754. DREAM-1A : Special-Purpose Computer for Computational Fluid Dynamics
  5755.  
  5756.        Yousuke Ohno, Junichiro Makino*, Izumi Hachisu,
  5757.        Toshikazu Ebisuzaki, Daiichiro Sugimoto
  5758.  
  5759.           Department of Earth Science and Astronomy,
  5760.          *Department of Information Science and Graphics,
  5761.           College of Arts and Sciences, University of Tokyo,
  5762.           Meguro-ku Tokyo 153, Japan
  5763.           Email: OHNO@KYOHOU.C.U-TOKYO.AC.JP
  5764.  
  5765. ABSTRACT: We have developed a special-purpose computer for computational
  5766. fluid dynamics, DREAM-1A. DREAM-1A has a peak speed of 80 Mflops and a
  5767. memory size of 1.6 Gbyte.  DREAM-1A consists of four units connected in
  5768. a one-dimensional bidirectional ring network.  One unit of DREAM-1A has
  5769. one vector processing unit (VPU) and one hard-disk unit. The physical
  5770. variables are stored in hard disk, instead of RAM. The peak speed of a
  5771. VPU is 20 Mflops.  The capacity and the data-transfer rate of the
  5772. hard-disk unit are 400 Mbyte and 1 Mbyte/s.  We implemented one- and
  5773. two-dimensional fluid dynamics codes on one unit of DREAM-1A.  The
  5774. sustained computing speed of this unit was 6.4 Mflops for 1-D and 3.6
  5775. Mflops for 2-D.  In 1-D calculation, all variables are stored in small
  5776. RAM in VPU, while in 2-D calculation, data are stored in hard disk. Thus
  5777. the speed of 6.4 Mflops represent the raw performance of VPU, while the
  5778. slow down to 3.6 Mflops of the 2-D simulations represent the performance
  5779. of the total system.  The speed of data transfer between processor units
  5780. is 40 Mbyte/s. We are implementing 2-D and 3-D fluid dynamics codes on
  5781. the parallel DREAM system. DREAM-1A will have a sustained computing
  5782. speed of 14 Mflops and will be able to perform a $(256)^3$ 3-D fluid
  5783. calculation in 3--8 days.
  5784.  
  5785. -------------------------------------------------------------------------
  5786.  
  5787.      The evolution of massive black hole binaries in merging galaxies
  5788.          I. Evolution of binary in spherical galaxy
  5789.  
  5790.       Junichiro Makino, Toshiyuki Fukushige, Sachiko K. Okumura,
  5791.              and Toshikazu Ebisuzaki
  5792.                      (as above)
  5793.  
  5794. ABSTRACT: We investigate the evolution of the binary massive black hole
  5795. formed by merging of galaxies containing central black holes. When two
  5796. galaxies merge, their central black holes sinks towards the center of
  5797. the merger because of the dynamical friction and form a binary system.
  5798. This black hole binary becomes harder because of dynamical friction from
  5799. field stars. At the same time, field stars gain kinetic energy and the
  5800. core of the galaxy expands. When the periastron distance between black
  5801. holes has become small enough, the emission of the gravitational wave
  5802. would cause black holes to merge. In this paper, we studied the
  5803. timescale of the merging and the amount of the energy deposited to the
  5804. core, by means of direct $N$-body simulation with 16384+2 particles. We
  5805. found that the black hole binary tends to have large eccentricity
  5806. ($\gtorder 0.9$).  This is because the evolution is driven by the
  5807. dynamical friction from the field stars. The dynamical friction is
  5808. strongest at the apocenter, since its strength is inversely proportional
  5809. to the third power of the velocity.  The binding energy of the binary
  5810. per unit mass becomes $\sim 10$ times as large as the kinetic energy of
  5811. field particles in the crossing timescale of the core. For a typical
  5812. elliptical galaxy with the internal velocity dispersion of $300 {\rm
  5813. km~s}^{-1}$, the velocity of the binary at the periastron would easily
  5814. reach $3000 {\rm km~s}^{-1}$, for which timescale of merging by the
  5815. radiation of the gravitational wave is $\ltorder 10^9$ years. Most of
  5816. black hole binaries formed by merging of ellipticals would merge in a
  5817. time much shorter than the Hubble time.
  5818.  
  5819. ------------------------------END OF REPORT----------------------------
  5820.  
  5821.  
  5822.  
  5823. Approved: parallel@hubcap.clemson.edu
  5824. Follow-up: comp.parallel
  5825. Path: bounce-back
  5826. From: gross@noether.ucsc.edu (Mike Gross)
  5827. Newsgroups: comp.parallel,sci.math.num-analysis
  5828. Subject: Parallel Fourier transforms
  5829. Organization: University of California, Santa Cruz
  5830.  
  5831. I need to solve Poisson's equation on an i860 supercomputer with local
  5832. memory only. I would like to use Fourier transform methods to solve
  5833. the equation, but it is not obvious to me how to perform a global operation
  5834. such as a Fourier integral (or FFT) efficiently on data that must be fragmented
  5835. across several processors. In order to get the dynamic range I need in my
  5836. simulation, I require a space-domain mesh that is several times the size of
  5837. local memory.
  5838.  
  5839. Does anyone out there know of any good references for this problem? Or better
  5840. yet, are there any publicly available routines? My problems sounds like one
  5841. that has been attacked many times by parallel numerical analysts. I hope this
  5842. isn't a FAQ.
  5843.  
  5844. If you post a response, please e-mail a copy to me.
  5845.  
  5846. Many thanks.
  5847.  
  5848. Mike Gross
  5849. Physics Board and Lick Observator
  5850. Univ of California                          GO SLUGS!!!!!
  5851. Santa Cruz, CA 95064
  5852. gross@lick.ucsc.edu
  5853. (408) 459-4588
  5854.  
  5855. Approved: parallel@hubcap.clemson.edu
  5856. Follow-up: comp.parallel
  5857. Path: bounce-back
  5858. From: "Bruce Shriver" <p00536@psilink.com>
  5859. Newsgroups: comp.parallel,comp.sys.super,comp.databases
  5860. Subject: CHISQ Ltd.
  5861. Organization: PSI Public Usenet Link
  5862.  
  5863.  
  5864. It's my understanding that CHISQ Ltd. of the UK markets the 
  5865. following two products for MasPar and DECmpp systems
  5866.  
  5867.   1. TABLE-MAKER
  5868.   2. SAS/TM ACCESS
  5869.  
  5870. TABLE-MAKER provides large-scale statistical analysis capabilities
  5871. such as data correlation, averaging, and histogramming.  It summarizes
  5872. and extracts subsets from databases.
  5873.  
  5874. SAS/TM ACCESS integrates TABLE-MAKER into the SAS statistical package.
  5875.  
  5876. I'm interested in learning if these products are available on any
  5877. other MPP (SIMD or MIMD) systems or on any clustered workstation
  5878. systems.  
  5879.  
  5880. Any comments about experiences using TABLE-MAKER and SAS/TM ACCESS 
  5881. (ease of use designing, implementing, debugging applications, performance, 
  5882. etc.) would also be appreciated.
  5883.  
  5884. Thanks,
  5885.  
  5886. Bruce
  5887. b.shriver@computer.org
  5888.  
  5889.  
  5890.  
  5891.  
  5892. Approved: parallel@hubcap.clemson.edu
  5893. Follow-up: comp.parallel
  5894. Path: bounce-back
  5895. Newsgroups: comp.parallel
  5896. Newsgroups: comp.parallel,comp.benchmarks,comp.sys.super,eunet.esprit,uk.announce
  5897. From: conf@dcs.warwick.ac.uk (PEPS Conference Administrator)
  5898. Subject: PEPS'93 Workshop
  5899. Organization: Department of Computer Science, Warwick University, England
  5900.  
  5901.  
  5902.                     PERFORMANCE EVALUATION OF PARALLEL SYSTEMS
  5903.  
  5904.             Programme and Registration Details
  5905.  
  5906.                               29 - 30 November 1993
  5907.                         University of Warwick, Coventry, UK
  5908.  
  5909.  
  5910. Sponsored by:
  5911.     The Commission of the European Communities 
  5912.          Esprit Programme
  5913.             The British Computer Society FSG, PPSG
  5914.                 The Technical Cooperation Program (TTCP)
  5915.  
  5916. Workshop Overview
  5917. -----------------
  5918.  
  5919. This is the first in a series of annual International Workshops bringing 
  5920. together state of the art research and experience in the Performance 
  5921. Evaluation of Parallel Systems.
  5922.  
  5923.     Topics include:
  5924.         Parallel Systems
  5925.         Characterisation
  5926.         Modelling
  5927.         Monitoring
  5928.         Benchmarking
  5929.  
  5930. Participation is welcome from users, vendors and researchers in any of the 
  5931. above areas.
  5932.  
  5933. Programme
  5934. ---------
  5935.  
  5936. Monday 29 November
  5937.  
  5938. 9:15    Welcome: Vice Chancellor (University of Warwick)
  5939.  
  5940. 9:30    Invited talk: Horst Forster (Head, CEC, HPCN Programme)
  5941.  
  5942. 10:15    Coffee Break
  5943.  
  5944. 10:45    Benchmarking 1        Chair: Ed Brocklehurst (National Physical Lab.)
  5945.  
  5946.     Innovations in Benchmarking: 
  5947.         T Chambers
  5948.     SOSIP and the PEPS Benchmarking Methodology: 
  5949.         T Mansfield
  5950.     The RAPS Initiative:  
  5951.         K Solchenbach
  5952.     The GENESIS Benchmark Suite: Current State and Results: 
  5953.         VS Getov, AJG Hey, RW Hockney, IC Wolton
  5954.  
  5955. 12:30    Lunch    
  5956.         (Poster Session)
  5957.  
  5958. 14:00    Characterisation    Chair: Graham Nudd (University of Warwick)
  5959.  
  5960.     A Layered Approach to Modelling Parallel Systems for Performance 
  5961.     Prediction:
  5962.         E Papaefstathiou
  5963.     Performance Evaluation of Parallel Computers Using Algorithmic
  5964.     Structures:  
  5965.         E Onbasioglu and Y Paker
  5966.     A Petri Net Technique for Assessing Performance of Multiprocessor 
  5967.     Architectures
  5968.         HD Johnson, J Delgado-Frias, S Vassiliadis and DM Green
  5969.     Multiprocessor Benchmarking Using Abstract Workload Descriptions:  
  5970.         E Bartscht and J Brehm
  5971.  
  5972. 15:30
  5973.  
  5974. 16:00    Performance Analysis    Chair: Salvo Sabina (Intecs)
  5975.  
  5976.     Design issues in Performance Monitoring of Parallel Systems - The 
  5977.     PEPS Approach
  5978.         MR Nazzarelli and S Sabina
  5979.     An Analytic Model for a Parallel Computer - Prediction of a Shared 
  5980.     Block Behavior
  5981.         K Joe and A Fukuda
  5982.     Efficiency of Parallel Programs in Multi-Tasking Environments:  
  5983.         T Schnekenburger
  5984.  
  5985. 17:00    Vendors Session and Exhibition        Chair: Chris Lazou (HiPerCom)
  5986.  
  5987. 19:00    Dinner
  5988.  
  5989. 20:30    Panel Discussion    Chair:  Anne de Baas (CEC, HPCN Programme)
  5990.  
  5991.  
  5992. Tuesday 30 November
  5993.  
  5994. 9.00    Invited talk:  Robert Hiromoto (University of Texas)
  5995.  
  5996. 9.30    Performance Modelling and Tools        Chair: Jean-Marc Talbot (Simulog
  5997.  
  5998.     The PEPS Modelling Tools:  
  5999.         F Manchon
  6000.     Performance Evaluation of Parallel Programs on the Data Diffusion 
  6001.     Machine:
  6002.         P Stallard, H Muller and D Warren
  6003.     PRM Net Performance Modelling during Design and Implementation:  
  6004.         MEC Hull and PG O'Donoghue
  6005.     Modelisation of Communication in Parallel Machines within the ALPES 
  6006.     Project:
  6007.         C Tron and B Plateau
  6008.  
  6009. 11:00    Coffee Break
  6010.  
  6011. 11:30    Applications        Chair: Trevor Chambers (National Physical Lab.)
  6012.  
  6013.     Programmer Effort in the Development of Parallel Lengendre Transforms:  
  6014.         D F Snelling
  6015.     The Use of Serialization Approach in the Design of Parallel Programs 
  6016.     Exemplified by a Problem in Applied Celestial Mechanics:  
  6017.         VV Savchenko and VO Vishnjakov
  6018.     A New Technique to Improve Parallel Automated Single Layer Wire Routing:
  6019.         H Keshk, S Mori, H Nakashima and S Tomita
  6020.     Seismic Applications on Parallel MIMD Machines Lessons from Experience:
  6021.         S Kapotas and W Karpoff
  6022.  
  6023. 12:30    Lunch    
  6024.         (Poster Session)
  6025.  
  6026. 14:00    Performance Application        Chair: Tony Hey (Southampton University)
  6027.  
  6028.     The MEASURE Image Synthesis Benchmark:  
  6029.         A Biersack and R Hodicke
  6030.     Benchmarking for Embedded Control and Real-Time Applications:  
  6031.         H Lindmeier, D Rauh, M Ronschkowiak
  6032.     Towards a Benchmark for Scalable Parallel Database Machines:  
  6033.         J Kerridge, I Jelly, C Bates and Y Tsitogiannis
  6034.  
  6035. 15.00    Coffee  Break
  6036.  
  6037. 15.30    Benchmarking 2        Chair:  Aad van der Steen (ACC, Utrecht)
  6038.  
  6039.     A Performance Assessment Support System for Advanced Software Systems:  
  6040.         F Kwakkel and ML Kersten
  6041.     The Genesis Benchmarking Methodology:  
  6042.         R Hockney
  6043.     Benchmarking experience on KSRI: 
  6044.         VS Pillet, A Clo and B Thomas
  6045.  
  6046.  
  6047. Registration Details
  6048. --------------------
  6049.  
  6050. The registration fee is #270 (Pounds Sterling) and as attendance is limited 
  6051. to 100 delegates, and an early response is recommended. Please include 
  6052. payment with your registration form. Payment should be in UK Pounds Sterling 
  6053. by cheque or international money order, drawn on a UK bank.
  6054.  
  6055. Registration cannot be confirmed without payment.
  6056.  
  6057. Registration at the workshop  will be in Radcliffe House on the evening of 
  6058. Sunday 28th November when a buffet supper will be available. Accommodation 
  6059. is in single rooms with en suite facilities in Radcliffe House. Accommodation 
  6060. and meals are included in the registration fee. 
  6061.  
  6062. The technical sessions will be held in Scarman House.
  6063.  
  6064.  
  6065. Travel to the University of Warwick
  6066. -----------------------------------
  6067.  
  6068. There are frequent train services between London and Coventry (approximately 
  6069. at 30 minute intervals) and the travel time from London Euston station is 
  6070. about 75 minutes. The University is 3 miles from Coventry train station. 
  6071. There are usually plenty of taxis available. Birmingham International Airport 
  6072. has good connecting train services to Coventry (a journey of about 10 miles).
  6073.  
  6074. By car
  6075.  
  6076.     From the North M1, M69 follow the By-pass routes marked Warwick (A46), 
  6077.         then follow the signs to the University, which is on the 
  6078.         outskirts of COVENTRY.
  6079.     From the South M1, M45, A45 or M40, A46, follow the signs to the 
  6080.         University.
  6081.     From the East join the M1, then follow directions as for travel from 
  6082.         the North or the South.
  6083.     From the West M5, M42, A45, follow the signs for the University.
  6084.  
  6085. Name (and title): 
  6086. -------------------------------------------------------------------------------
  6087.  
  6088. Affiliation:
  6089. -------------------------------------------------------------------------------
  6090.  
  6091. Position:
  6092. -------------------------------------------------------------------------------
  6093.  
  6094. Address:
  6095. -------------------------------------------------------------------------------
  6096.  
  6097. -------------------------------------------------------------------------------
  6098.  
  6099. -------------------------------------------------------------------------------
  6100.  
  6101. Telephone:                Fax:
  6102. ----------------------------------    ---------------------------------------
  6103.  
  6104. Email:
  6105. -------------------------------------------------------------------------------
  6106.  
  6107.  
  6108. Please send registration forms and payment to:
  6109.         PEPS Workshop
  6110.         Department of Computer Science
  6111.         University of Warwick
  6112.         Coventry CV4 7AL
  6113.         UK
  6114.  
  6115.         Tel: +44 203 523193  
  6116.         Fax: +44 203 525714
  6117.         Email: conf@dcs.warwick.ac.uk
  6118.  
  6119.  
  6120. Approved: parallel@hubcap.clemson.edu
  6121. Follow-up: comp.parallel
  6122. Path: bounce-back
  6123. Newsgroups: comp.parallel
  6124. From: cheekong@iss.nus.sg (Chui Chee Kong)
  6125. Subject: iterative linear system solver
  6126. Date: 11 Oct 1993 09:39:06 GMT
  6127. Organization: Institute Of Systems Science, NUS
  6128.  
  6129. Will appreciate if someone can send me references on solving
  6130. large size linear system of equations on preferably distributed
  6131. system.
  6132.  
  6133. Thanks.
  6134.  
  6135. Just an anonymous engineer,
  6136. chee kong
  6137. internet: cheekong@iss.nus.sg
  6138.  
  6139. Approved: parallel@hubcap.clemson.edu
  6140. Follow-up: comp.parallel
  6141. Path: bounce-back
  6142. Newsgroups: comp.parallel
  6143. From: montoya@ciril.fr (Frederic Montoya,CIRIL,,)
  6144. Subject: HPF Compilers...
  6145. Date: 11 Oct 1993 10:39:23 +0100
  6146. Organization: CIRIL, Nancy, France
  6147.  
  6148. Hi,
  6149.  
  6150. which vendors are actually proposing a full features HPF compiler ?
  6151.  
  6152. Is there any public domain translator (eg HPF -> F77 + PVM) ?
  6153.  
  6154. Thanx in advance,
  6155. Frederic.
  6156.  
  6157. Approved: parallel@hubcap.clemson.edu
  6158. Follow-up: comp.parallel
  6159. Path: bounce-back
  6160. Newsgroups: comp.parallel
  6161. From: mbergerm+@CS.CMU.EDU (Marcel Bergerman)
  6162. Subject: Help with parallel computing references
  6163. Message-ID: <CEqL82.55F.1@cs.cmu.edu>
  6164.  
  6165. Dear netters,
  6166.  
  6167. I would like to know of references on the better allocation of
  6168. processors for large, numerical-intensive parallel
  6169. applications.  The same sequential algorithm can have several
  6170. parallel implementations and it would be good to have some
  6171. criteria to decide which one is the best before even beginning
  6172. to program.
  6173.  
  6174. Send all answers to me and I'll summarize them to the group.
  6175.  
  6176. Thank you,
  6177.  
  6178. --Marcel
  6179.  
  6180.  
  6181. p.s.: Actually, I am posting this for a friend who does not
  6182. have access to this bboard. Sorry if this is "bogus" or a FAQ.
  6183.  
  6184. Approved: parallel@hubcap.clemson.edu
  6185. Follow-up: comp.parallel
  6186. Path: bounce-back
  6187. Newsgroups: comp.parallel
  6188. Date: Mon, 11 Oct 93 15:57:55 +0100
  6189. From: Dave Beckett <djb1@unix.hensa.ac.uk>
  6190. Subject: [LONG] Update to transputer,occam and parallel computing archive
  6191. Summary: More than a gigabyte transferred!
  6192. Organization: Computing Lab, University of Kent at Canterbury, UK.
  6193. Keywords: transputer, occam, parallel, archive
  6194.  
  6195. In the last two and a half weeks I've added another 3M files to the
  6196. archive at unix.hensa.ac.uk in /parallel.  It currently contains over
  6197. 49 Mbytes of freely distributable software and documents, in the
  6198. transputer, occam and parallel computing subject area.  That's about 3
  6199. Mbytes more than last time.  The (old) /parallel/Changes file is
  6200. reproduced below.
  6201.  
  6202. Statistics:  Over 2380 users (400 more than last time), over 1200 Mbytes
  6203. transfered (260MB more) since the archive was started in early May.
  6204.  
  6205. Top 10 files accessed, excluding Index files
  6206.   561 /parallel/README
  6207.   280 /parallel/pictures/T9000-schematic.ps.Z
  6208.   273 /parallel/reports/misc/soft-env-net-report.ps.Z
  6209.   221 /parallel/documents/inmos/occam/manual3.ps.Z
  6210.   170 /parallel/Changes
  6211.   155 /parallel/reports/ukc/T9000-systems-workshop/all-docs.tar.Z
  6212.   151 /parallel/software/folding-editors/origami.tar.Z
  6213.   122 /parallel/books/prentice-hall
  6214.   106 /parallel/ls-lR.Z
  6215.    96 /parallel/software/folding-editors/fue-ukc.tar.Z
  6216.  
  6217. Again, looks mostly the same as last time.
  6218.  
  6219. The material can be found at the HENSA (Higher Education National
  6220. Software Archive) UNIX archive site.  The HENSA UNIX archive is
  6221. accessible via an interactive browsing facility, called fbr as well as
  6222. email, DARPA ftp, gopher and NI-FTP (Blue Book) services.  For details,
  6223. see below.
  6224.  
  6225. The files are all located in /parallel and each directory contains a
  6226. short Index file of the contents.  If you want to check what has
  6227. changed in between these postings, look at the /parallel/Changes file
  6228. which contains the new files added.
  6229.  
  6230.  
  6231. NEW FEATURES
  6232. ~~~~~~~~~~~~
  6233. Gopher access.  See below.
  6234.  
  6235.  
  6236. NEW FILES since 23th September 1993 (newest first)
  6237. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  6238.  
  6239. /parallel/conferences/share-HPC-day
  6240.     Details of the talks taking place during the High Performance
  6241.     Computing Day being held as part of the SHARE Europe Anniversary
  6242.     meeting on 27th October 1993 at The Hague, The Netherlands.
  6243.  
  6244. /parallel/documents/vendors/APR/parallelizing-products
  6245.     Details of APR parallelizing products (FORGE 90, xHPF77)
  6246.  
  6247. /parallel/journals/lisp-and-symbolic-computation
  6248.     Call for papers and information for Lisp and Symbolic Computation
  6249.     journal published by Kluwer.
  6250.  
  6251. /parallel/reports/dec-crl/contention-in-shared-mem-algorithms
  6252.     Announcement of new CRL Technical Report 93/12 on Contention in
  6253.     Shared Memory Algorithms by Cynthia Dwork, Maurice Herlihy
  6254.     <herlihy@crl.dec.com> and Orli Waarts.
  6255.  
  6256. /parallel/faqs/PVM-technical
  6257.     PVM Version 3 Frequently Asked Questions - Technical from 
  6258.     comp.parallel.pvm newsgroup by Bob Manchek <manchek@thud.cs.utk.edu>
  6259.  
  6260. /parallel/conferences/parle94
  6261.     Call for papers for Parallel Architectures and Languages Europe
  6262.     (PARLE) 1994 being held from 13th-17th June 1994 at the
  6263.     Intercontinental Hotel, Athens, Greece. Deadlines:  Full Draft:
  6264.     19th November 1993; Acceptance: 11th February 1994;
  6265.     Camera-ready copies: 18th March 1994.
  6266.  
  6267. /parallel/faqs/parallel-data-compression
  6268.     Summary of responses to a query about parallel data compression
  6269.     by Alf-Christian Achilles <achilles@ira.uka.de>.
  6270.  
  6271. /parallel/conferences/ispcs93
  6272.     Details of the 1993 International Workshop on Intelligent Signal
  6273.     Processing and Communication Systems (ISPCS '93) being held from
  6274.     27th-29th October 1993 at Aoba Memorial Hall, Tohoku University,
  6275.     Sendai, Japan.
  6276.  
  6277. /parallel/user-groups/isug/isug_newsletter.09.93
  6278.     Intel Supercomputer Users Group newsletter for September 1993
  6279.     from export.ssd.intel.com in /pub/isug.
  6280.  
  6281. /parallel/user-groups/isug/isug_newsletter.09.93.announce
  6282.     Announcement of the above newsletter
  6283.  
  6284. /parallel/software/tmsc40/tick.txt
  6285.     TMS320C40 parallel network detection and loader utility v2.0 (September
  6286.     1993) supporting Transtech, Hunt, and Traquair boards hosted by DOS,
  6287.     SunOS and Linux by Ben Abbott <abbott@vuse.vanderbilt.edu> and
  6288.     Akos Ledeczi <akos@vuse.vanderbilt.edu> of Vanderbilt University, USA
  6289.     with Modifications for UNIX by Mark Milligan University of British
  6290.     Columbia and Rolf Skeie of NDRE.
  6291.  
  6292. /parallel/software/tmsc40/tick.zip
  6293.     PKZIP archive of TICK v2.0 for x86 computers running MSDOS or Linux,
  6294.     and Suns running SunOS.
  6295.  
  6296. /parallel/conferences/compsac93
  6297.     Details (Advance Programme) of IEEE Computer Society's Seventeenth
  6298.     Annual International Computer Software & Applications Conference -
  6299.     COMPSAC93 being held from 1st-5th November 1993 at the Mesa Hilton
  6300.     Pavilion, Mesa (Phoenix suburb), Arizona, USA.
  6301.  
  6302. /parallel/conferences/conpar-vappVI-94
  6303.     Call for papers for the 1994 International Conferences on Parallel
  6304.     Processing (CONPAR) / Vector and Parallel Processors in Computational
  6305.     Science meeting VI (VAPP VI) being held from 6th-8th September 1994
  6306.     at the Johannes Kepler University of Linz, Austria.  Deadlines:
  6307.     Final call for papers: October 1993; Submission of complete papers:
  6308.     15th February 1994;  Acceptance: 1st May 1994; Final paper: 1st July
  6309.     1994.
  6310.  
  6311. /parallel/documents/vendors/cray/cray-t3d.announcement
  6312.     Announcment of the CRAY T3D by Cray Research, Inc.
  6313.  
  6314. /parallel/bibliographies/icpp93-bib.ref
  6315.     Draft bibliography of 1993 International Conference on Parallel
  6316.     Processing (ICPP 93) by Eugene Miya <eugene@nas.nasa.gov> in refer
  6317.     format.
  6318.  
  6319. /parallel/reports/misc/status-of-parallel-processing-education.announcement
  6320.     How to get hold of the current version of "The Status of Parallel
  6321.     Processing Education: 1993" from University of New York at Buffalo
  6322.     by Russ Miller <miller@cs.buffalo.edu>
  6323.  
  6324. /parallel/conferences/par-finite-element-computations
  6325.     Call for participation in the symposium: Parallel Finite Element
  6326.     Computations being held from 24th-27th October 1993 at the
  6327.     Supercomputer Institute, 1200 Washington Avenue South, Minneapolis,
  6328.     Minnesota, USA sponsored by the University of Minnesota Supercomputer
  6329.     Institute and US Army High Performance Computing Research Center.
  6330.  
  6331. /parallel/documents/misc/PPE_Survey.announcement
  6332. /parallel/documents/misc/PPE_Survey.txt
  6333.     The Parallel Programming Evaluation Survey -- Doug Elias
  6334.     <elias@TC.Cornell.EDU> of the Software and Consulting Support Group,
  6335.     Cornell Theory Center, Ithaca, NY, USA is taking a survey
  6336.     questionnaire on tools used to obtain parallelism in applications.
  6337.     The survey is PPE_Survey.txt and his comments are
  6338.     PPE_Survey.announcement.
  6339.  
  6340. /parallel/conferences/micro-26
  6341.     Call for participation for the 26th Annual ACM/IEEE International
  6342.     Symposium on Microarchitecture with special emphasis on
  6343.     Instruction-Level Parallel Processing being held at The Austin
  6344.     Marriott at the Capitol, Austin, Texas, USA from 1st-3rd December 1993.
  6345.     Sponsored by ACM SIGMICRO and IEEE TC-MICRO.
  6346.  
  6347. /parallel/faqs/mesh-of-buses
  6348.     Summary of responses to a query about works on Meshes of (optical)
  6349.     Buses by ricki R. Wegner <wegner@zorro.informatik.uni-dortmund.de>
  6350.  
  6351. /parallel/conferences/ess93
  6352.     Call for participation in the European Simulation Symposium 1993
  6353.     with the following themes: Dynamic Modelling and Information Systems;
  6354.     Multimedia Systems and Virtual Reality; High-performance Computing;
  6355.     Simulation and New Trends in Methods and Tools.     THe symposium is
  6356.     being held from 25th-28th October 1993 at the Faculty of Mechanical
  6357.     Engineering, Delft University of Technology, The Netherlands.
  6358.  
  6359. /parallel/courses/csp
  6360.     Introductory CSP (Communicating Sequential Processes) - A Tool-Based
  6361.     Course being given by Formal Systems (Europe), Ltd from 29th November
  6362.     -3rd December 1993 in Boston, MA, USA.
  6363.  
  6364. /parallel/conferences/rovpia94
  6365.     Details and call for papers for International Conference on Robotics,
  6366.     Vision and Parallel Processing for Industrial Automation (ROVPIA'94)
  6367.     being held from 26th-28th May 1994 at the School of Electrical and
  6368.     Electronic Engineering, Perak Campus of University of Science,
  6369.     Malaysia.  Deadlines: Abstract: 30th Oct, Acceptance: 30th Nov,
  6370.     Camera-ready copies: 30th Dec.
  6371.  
  6372. /parallel/faqs/parallel-garbage-collection
  6373.     A summary of responses to a query about parallel garbage collection
  6374.     algorithms by Gritton Gregory Vance <gvg@engr.orst.edu>
  6375.  
  6376. /parallel/documents/vendors/maspar/MasPar-Challenge
  6377.     Details of the MasPar Challenge for 1993.
  6378.  
  6379. /parallel/journals/IEEE-computer-assoc-processing
  6380.     Call for papers and referees for November 1994 Special Issue of IEEE
  6381.     COMPUTER on Associative Processing and Processors.  Deadlines:
  6382.     Abstract: 1st October; Draft Paper: 1st December.
  6383.  
  6384. /parallel/bibliographies/archindependent.bib
  6385. /parallel/bibliographies/archindependent.txt
  6386.     BibTeX bibliography by David Skillicorn <skill@qucis.queensu.ca>
  6387.     on aspects of parallelism relating to: architecture independence,
  6388.     programming models, categorical approaches to parallelism, general
  6389.     purpose parallelism, and theoretical and foundational results
  6390.     relating to these.
  6391.  
  6392.  
  6393. OTHER HIGHLIGHTS
  6394. ~~~~~~~~~~~~~~~~
  6395. /parallel/documents/occam/manual3.ps.Z
  6396.     The latest draft (March 31 1992) of the occam 3 reference
  6397.     manual by Geoff Barrett of INMOS.  This is freely
  6398.     distributable but is copyrighted by INMOS and is a full 203
  6399.     page book in the same style of the Prentice Hall occam 2
  6400.     reference manual.  Thanks a lot to Geoff and INMOS for
  6401.     releasing this.
  6402.  
  6403. /parallel/journals/Wiley/trcom/*
  6404.     LaTeX (.sty) and BibTeX (.bst) style files and examples of use for
  6405.     the forthcoming Wiley journal - Transputer Communications,
  6406.     organised by the World occam and Transputer User Group (WoTUG).
  6407.     See /parallel/documents/journals/transputer-communications.cfp
  6408.     for details on how to submit a paper.
  6409.  
  6410. /parallel/software/folding-editors/origami.zip
  6411. /parallel/software/folding-editors/origami.tar.Z
  6412.     An updated version of the origami folding editor distribution
  6413.     as improved by Johan Sunter of Twente, Netherlands.  The PKZIP 2.0
  6414.     compatible origami.zip archive contains all the files needed for
  6415.     running the editor on MSDOS, but no sources and the origami.tar.Z
  6416.     file contains all the sources and keymaps as well as binaries
  6417.     for SPARC architectures and for MSDOS systems.
  6418.  
  6419. /parallel/reports/wotug/T9000-systems-workshop/*
  6420.       The reports from the T9000 Systems Workshop held at the
  6421.     University of Kent at Canterbury in October 1992.  It
  6422.     contains ASCII versions of the slides given then with the
  6423.     permission of the speakers from INMOS.  Thanks to Peter
  6424.     Thompson and Roger Shepherd for this.
  6425.       Subjects explained include the communications architecture
  6426.     and low-level communications, the processor pipeline and
  6427.     grouper, the memory system and how errors are handled.
  6428.  
  6429. /parallel/papers/ukc/peter-welch/*
  6430.     Eleven papers by Professor Peter Welch and others of the
  6431.     Parallel Processing Group at the Computing Laboratory,
  6432.     University of Kent at Canterbury, England related to occam,
  6433.     the Transputer and other things.  Peter is Chairman of the
  6434.     World occam and Transputer User Group (WoTUG)
  6435.  
  6436. /parallel/software/inmos/iservers/*
  6437.     Many versions of the iserver- the normal version, one for
  6438.     Windows (WIserver), one for etherneted PCs (PCServer) and one
  6439.     for Meiko hardware.
  6440.  
  6441. /parallel/software/vcr/*,../parmacs/*
  6442.     Software from University of Southampton: VCR - an occam
  6443.     compiler with virtual channel support [requires INMOS occam
  6444.     toolset] plus a version of the parallel macros for FORTRAN
  6445.     that runs over it (using a port of F2C which is supplied)
  6446.     [requires INMOS C toolset].
  6447.  
  6448. /parallel/software/folding-editors/*
  6449.     Lots of different versions of folding editors including
  6450.     origami and folding micro-emacs, traditionally used for occam
  6451.     programming environments.
  6452.  
  6453. /parallel/parlib
  6454.     Mirror of the PARLIB archive maintained by Steve Stevenson,
  6455.     the moderator of the USENET group comp.parallel.
  6456.  
  6457. Also available:
  6458.  
  6459. /pub/misc/ukc.reports
  6460.     The internal reports of the University of Kent at Canterbury
  6461.     Computing Laboratory.  Many of these contain parallel computing
  6462.     research.
  6463.  
  6464. /netlib/p4, /netlib/pvm, /netlib/pvm3, /netlib/picl, /netlib/paragraph,
  6465. /netlib/maspar
  6466.     Mirror of the netlib files for the above packages.
  6467.  
  6468.  
  6469. Coming Soon
  6470. ~~~~~~~~~~~
  6471. A better formatted bibliograpy of the IOS press (WoTUG, NATUG et al) books.
  6472. A HUGE bibliography of occam papers, PhD theses and publications - currently
  6473.   about 2000 entries.
  6474. The rest of the INMOS archive server files.
  6475. WoTUG related papers and information.
  6476. NATUG information and membership form.
  6477. A transputer book.
  6478. A freely distributable occam compiler for workstations.
  6479.  
  6480.  
  6481. There are several ways to access the files which are described below
  6482. - log in to the archive to browse files and retrieve them by email;
  6483. transfer files by DARPA FTP over JIPS or use Blue Book NI-FTP.
  6484.  
  6485.  
  6486. Logging in:
  6487. ~~~~~~~~~~~
  6488. JANET X.25 network:
  6489.     call uk.ac.hensa.unix (or 000049200900 if you do not have NRS)
  6490.  
  6491. JIPS: 
  6492.     telnet unix.hensa.ac.uk    (or 129.12.21.7)
  6493.  
  6494. Once connected, use the login name 'archive' and your email address to
  6495. enter. You will then be placed inside the fbr restricted shell. Use the
  6496. help command for up to date details of what commands are available.
  6497.  
  6498.  
  6499. Transferring files by FTP
  6500. ~~~~~~~~~~~~~~~~~~~~~~~~
  6501. DARPA ftp from JIPS/the internet:
  6502.     site: unix.hensa.ac.uk (or 129.12.21.7)
  6503.         login: anonymous
  6504.         password: <your email address>
  6505.                     
  6506. Use the 'get' command to transfer a file from the remote machine to
  6507. the local one.  When transferring a binary file it is important to
  6508. give the command 'binary' before initiating the transfer.  For more
  6509. details of the 'ftp' command, see the manual page by typing 'man ftp'.
  6510.  
  6511.  
  6512. The NI-FTP (Blue Book) request over JANET
  6513.         <ARCHIVE>path-of-file  from uk.ac.hensa.unix
  6514.         Username: guest
  6515.         Password: <your email address>
  6516.                     
  6517. The program to do an NI-FTP transfer varies from site to site but is
  6518. usually called hhcp or fcp.  Ask your local experts for information.
  6519.  
  6520.  
  6521. Transferring files by Email
  6522. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  6523. To obtain a specific file email a message to
  6524.       archive@unix.hensa.ac.uk
  6525. containing the single line
  6526.       send path-of-file
  6527. or 'help' for more information.
  6528.  
  6529.  
  6530. Browsing and transferring by gopher
  6531. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  6532. >From the Root Minnesota Gopher gopher, select the following entries:
  6533.  
  6534.     8.  Other Gopher and Information Servers/
  6535.  
  6536.     5.  Europe/
  6537.  
  6538.     37. United Kingdom/
  6539.  
  6540.     14. HENSA unix (National software archive, University of Kent), (UK)/
  6541.  
  6542.     3.  The UNIX HENSA Archive at the University of Kent at Canterbury/
  6543.  
  6544.     9.  PARALLEL - Parallel Computing /
  6545.  
  6546. and browse the archive as normal.  [The numbers are very likely to change]
  6547. The short descriptions are abbreviated to fit on an 80 column display
  6548. but the long ones can always be found under 'General Information.' (the
  6549. Index files).  Updates to the gopher tree follow a little behind the
  6550. regular updates.
  6551.  
  6552.  
  6553. DONATIONS
  6554. ~~~~~~~~~
  6555. Donations are very welcome.  We do not allow uploading of files directly
  6556. but if you have something you want to donate, please contact me.
  6557.  
  6558.  
  6559. Dave Beckett
  6560.  
  6561. Computing Laboratory, University of Kent at Canterbury, UK, CT2 7NF
  6562. Tel: [+44] (0)227 764000 x7691  Fax: [+44] (0)227 762811  Email: djb1@ukc.ac.uk
  6563.  
  6564. Approved: parallel@hubcap.clemson.edu
  6565. Follow-up: comp.parallel
  6566. Path: bounce-back
  6567. Newsgroups: comp.parallel
  6568. From: ganesan@cs.buffalo.edu (Ravikanth Ganesan)
  6569. Subject: Scheduling in Encore Multimax
  6570.  
  6571. This is similar to my previous post about scheduling on hypercube.
  6572. Assume I have a configuration of 4 processors on an Encore Multimax
  6573. machine. How are newly created jobs assigned to a processor ? Again
  6574. the question of whether there is a global queue or a local queue
  6575. for each processor. Once a job is assigned to a processor do all the
  6576. processes created by the same job get assigned to run on the same
  6577. processor ? What if the job is thread-based ? Do all the threads of
  6578. the same job get to run on the same processor or different processors ?
  6579. What criteria are adopted ?  Please provide references if you can.
  6580. Any leads is welcome.
  6581.  
  6582. thanks
  6583. ravi
  6584. -- 
  6585. +  RAVIKANTH GANESAN                                                          +
  6586. +  [OFF] 334 Bell Hall, CS Dept.     [E-Mail] ganesan@cs.buffalo.edu          +
  6587. +        SUNY@Buffalo, NY 14260
  6588. +        (716)645-2193               [Res]    (716)834-3171                   +
  6589.  
  6590. Approved: parallel@hubcap.clemson.edu
  6591. Follow-up: comp.parallel
  6592. Path: bounce-back
  6593. Newsgroups: misc.jobs.offered,comp.parallel,comp.os.mach
  6594. From: lernst@SSD.intel.com (Linda Ernst)
  6595. Subject: OS Designers, Intel, Beaverton, Oregon, USA
  6596. Organization: Supercomputer Systems Division (SSD), Intel
  6597.  
  6598. The Supercomputing Systems Division of Intel, has positions available now
  6599. in Beaverton, Oregon for Senior Software Engineers, Operating Systems.
  6600.  
  6601. We are a leading supplier of massively parallel supercomputers, which
  6602. run a fully distributed version of OSF1/AD (Mach microkernel, Unix server)
  6603. on 1000+ nodes, producing 100s of gigaFLOPS and terabytes of data.
  6604. Not for the faint of heart :-)
  6605.  
  6606. Job descriptions are attached.
  6607.  
  6608. Please mail resumes (please ABSOLUTELY no FAXes, no phone calls, no e-mail):
  6609.  
  6610.   Linda Ernst
  6611.   c/o Intel Corporation
  6612.   Mail Stop CO1-01
  6613.   5200 N.E. Elam-Young Parkway
  6614.   Hillsboro, OR 97124-6497
  6615.  
  6616. ===============================================================================
  6617.  
  6618. Position #1: Operating System Designer, Memory Management
  6619.     
  6620. Description:
  6621.     Specify, design, prototype and implement an advanced distributed memory
  6622.     management architecture in a Mach/Unix-based operating system for
  6623.     Intel's next generation parallel supercomputer. Includes collaboration
  6624.     with with internal and academic applications researchers to provide
  6625.     high performance operating system support for new parallel programming
  6626.     models.
  6627.  
  6628. Education and Skills:
  6629.     Minimum BSCS, Masters preferred, 6 to 10 years programming experience,
  6630.     3 to 5 years operating system design and development experience.
  6631.     Solid knowledge of high performance system design, Unix internals,
  6632.     microkernel operating systems, distributed and parallel architectures.
  6633.     Multicomputer and scalable operating system experience a plus, experience
  6634.     in the areas of supercomputing a plus.  Design experience with memory
  6635.     management required.
  6636.  
  6637. ===============================================================================
  6638.  
  6639. Position #2: Operating System Designer, Message Passing
  6640.  
  6641. Description:
  6642.     Design, prototype and implement message passing-related features,
  6643.     and new message passing protocols, in a Mach/Unix-based operating
  6644.     system for Intel's next generation parallel supercomputer.
  6645.  
  6646. Education and Skills:
  6647.     Minimum BSCS, Masters preferred, 5 to 8 years programming experience,
  6648.     2 to 5 years operating system design and development experience.
  6649.     Solid knowledge of high performance system design, Unix internals,
  6650.     microkernel operating systems, distributed and parallel architectures.
  6651.     Multicomputer operating system experience a plus, experience in the
  6652.     areas of supercomputing a plus.  Experience with message passing
  6653.     highly desirable.
  6654.  
  6655.  
  6656. Approved: parallel@hubcap.clemson.edu
  6657. Follow-up: comp.parallel
  6658. Path: bounce-back
  6659. Newsgroups: comp.parallel
  6660. Date: Mon, 11 Oct 93 16:59:57 PDT
  6661. From: ahicken@parasoft.com (Arthur Hicken)
  6662. Subject: Parallel Programming Course
  6663.  
  6664.     Hands-on Parallel/Distributed Programming Courses offered.
  6665.  
  6666. ParaSoft Corporation, the leader in distributed and parallel computing
  6667. tools, will conduct a hands on, introductory  course on the theory and
  6668. practice of distributed and parallel computing.  This unique, hands-on
  6669. focus of this course, 75% of the total time, assures that participants
  6670. will  gain  a  practical  understanding  of  distributed  computing
  6671. applications.  Each participant  will program on a workstation  linked
  6672. to a network  within the lab, to  demonstrate  and verify  theoretical
  6673. concepts presented in the seminar.
  6674.  
  6675.  
  6676. This course has been timed to take place after the end of the Cluster 
  6677. Workship at Florida State, so you can plan to attend both if you'd
  6678. like.
  6679.  
  6680. Course Goals:  
  6681. Upon completion of the course, the participant will be able to:
  6682.  
  6683.    1.  Set up a simple job dispatcher with dynamic load balancing.
  6684.    2.  Build an application which runs on multiple platforms.
  6685.    3.  Implement process communication for tightly coupled applications.
  6686.  
  6687. Course Content:
  6688.  
  6689.    1. Theory - Introduction to parallel/distributed computing,
  6690.            programming models, programming environments.
  6691.  
  6692.    2. Labs   - Machine setup, Running parallel/distributed programs,
  6693.            basic parallel/distributed I/O, message passing,
  6694.            global operations, data decomposition, heterogeneous computing.
  6695.  
  6696.  
  6697. Prerequisites:  
  6698.    1.  Working knowledge of C or Fortran.
  6699.    2.  Familiarity with Unix
  6700.    3.  Strong desire to learn about distributed computing.
  6701.  
  6702.  
  6703. Dates      :  Friday, December 10 - Sunday, December 12 
  6704.  
  6705. Location   :  Florida State University, Tallahassee, Florida  
  6706.  
  6707. Instructors:  Dr.  Adam Kolawa - World wide expert and lecturer on
  6708.                                  distributed computing
  6709.  
  6710.  
  6711. Lab Setup:  Each participant will develop distributed applications at
  6712. a workstation on a network within the lab.
  6713.  
  6714.  
  6715. Cost:  $495 - includes a complete set of tutorial materials and
  6716. Express manuals. Lunches and the evening receptions are included.
  6717. Cost can be credited toward purchase of Express, or toward
  6718. application development services.
  6719.  
  6720. Educational Discount: Only $200 for university personnel and students.
  6721.  
  6722.  
  6723. Participation:  Strictly limited to 15 people.  Please call or send 
  6724. email to parasoft early to reserve your space. Applications are accepted
  6725. on a first-come, first-serve basis. 
  6726.  
  6727.  
  6728. Additional Courses are available to graduates from the Level I course:
  6729. Level II - 3 days.  Covers parallel/distributed: debugging, graphics,
  6730.             performance monitoring, parallelization techniques,
  6731.             asynchronous programming, basic parallel/distributed
  6732.             application skeletons, etc.
  6733.  
  6734. Level III - 3 days. Covers application of topics learned in the level I
  6735.                     and II courses by applying these techniques on real
  6736.             applications.
  6737.  
  6738.  
  6739. A copy of the transparencies used in the course can be obtained from
  6740. the ParaSoft anonymous ftp server at ftp.parasoft.com (192.55.86.17)
  6741. in the /express/classes directory.
  6742.  
  6743. For more information contact:
  6744.  
  6745. ParaSoft Corporation
  6746. 2500 E. Foothill Blvd.
  6747. Pasadena, CA 91107-3464
  6748. voice: (818) 792-9941
  6749. fax  : (818) 792-0819
  6750. email: info@parasoft.com
  6751.  
  6752. Approved: parallel@hubcap.clemson.edu
  6753. Follow-up: comp.parallel
  6754. Path: bounce-back
  6755. Newsgroups: comp.parallel
  6756. From: a92188@cs.ait.ac.th ( Mr. Wu Xiao Wen  (PR) )
  6757. Subject: Open files in pvm slave process
  6758. Organization: UTexas Mail-to-News Gateway
  6759.  
  6760. I wrote a program tried to open a file in a pvm slave process, but it failed. Can anybody tell me if I can open a file in the slave program ? 
  6761.  
  6762. Xiaowen Wu 
  6763. a92188@cs.ait.ac.th
  6764.  
  6765.  
  6766.  
  6767. Approved: parallel@hubcap.clemson.edu
  6768. Path: bounce-back
  6769. Newsgroups: comp.parallel,comp.lang.functional
  6770. From: schreine@risc.uni-linz.ac.at (Wolfgang Schreiner)
  6771. Subject: Parallel Functional Programming Bibliography
  6772. Followup-To: comp.lang.functional
  6773. Keywords: parallel computation, functional programming
  6774. Organization: RISC-Linz, Johannes Kepler University, Linz, Austria
  6775.  
  6776. This is a repost of an article I've posted some 3 months ago.
  6777. Recently I learned that due to a news server error, this posting
  6778. probably did not leave our local domain, so I'll try again ...
  6779.  
  6780. --
  6781.  
  6782. I've compiled an annotated bibliography on parallel functional programming
  6783. that might be useful for some of you. The bibliography lists more
  6784. than 350 publications mostly including their *full abstracts*.
  6785.  
  6786. You can retrieve the paper by anonymous ftp from ftp.risc.uni-linz.ac.at
  6787. (193.170.36.100) in pub/reports/parlab/pfpbib.dvi.Z (or pfpbib.ps.Z).
  6788.  
  6789. Here the abstract:
  6790.  
  6791.   This bibliography cites and comments more than 350 publications on the
  6792.   parallel functional programming research of the last 15 years. It focuses on
  6793.   the software aspect of this area i.e.\ on languages, compile-time analysis
  6794.   techniques (in particular for strictness and weight analysis), code
  6795.   generation, and runtime systems. Excluded from this bibliography are
  6796.   publications on special architectures and on garbage collection unless they
  6797.   contain aspects interesting for above areas. Most bibliographic items are
  6798.   listed inclusive their full abstracts.
  6799.  
  6800. If the bibliography is useful for your work, please be so kind to cite it 
  6801. in resulting publications as
  6802.  
  6803.   Wolfgang Schreiner. 
  6804.   Parallel Functional Programming --- An Annotated Bibliography.
  6805.   Technical Report 93-24, RISC-Linz, Johannes Kepler University, 
  6806.   Linz, Austria, May 1993.
  6807.  
  6808. Any comments, corrections and supplements are welcome.
  6809.  
  6810. Wolfgang
  6811.  
  6812. -- 
  6813. Wolfgang Schreiner
  6814. Research Institute for Symbolic Computation (RISC-Linz)
  6815. Johannes Kepler University, A-4040 Linz, Austria
  6816. Tel: +43 7236 3231 66  Fax: +43 7236 3231 30
  6817. Approved: parallel@hubcap.clemson.edu
  6818. Follow-up: comp.parallel
  6819. Path: bounce-back
  6820. Newsgroups: comp.parallel
  6821. Date: Tue, 12 Oct 93 10:17:42 -0400
  6822. From: rao@watson.ibm.com
  6823. Subject: Workshop on Visualization and Machine Vision
  6824.  
  6825. CALL FOR PAPERS
  6826.  
  6827. =================================================================
  6828. =================================================================
  6829.  
  6830. IEEE Workshop on Visualization and Machine Vision
  6831.  
  6832. The Westin Hotel, Seattle, Washington June 24, 1994
  6833. (Note: The workshop is a day after CVPR at the same site.
  6834. So researchers can stay an extra day and attend the workshop).
  6835.  
  6836. Sponsored by IEEE Computer Society:
  6837. Pattern Analysis and Machine Intelligence Technical Committee and
  6838. Computer Graphics Technical Committee
  6839.  
  6840. =================================================================
  6841. =================================================================
  6842.  
  6843. Visualization is a rapidly growing discipline, and has become one
  6844. of the most important tools of modern computational science.  The
  6845. goal  of  research  in  visualization  is  to extract  meaningful
  6846. information  from  voluminous datasets through the use of imaging
  6847. and interactive graphics. This goal has  been  made  feasible  by
  6848. recent    advancements   in  multi-media   technology.   Computer
  6849. Vision, on the  other  hand,  is  concerned  with  the  automatic
  6850. interpretation    of    images.    Thus,   both   disciplines are
  6851. concerned with computational problems associated with images.
  6852.  
  6853. The aim of this workshop is to explore the synergy between  these
  6854. two  research  areas  and identify new applications and promising
  6855. new directions for interdisciplinary research.  Some examples  of
  6856. such  applications are:  automated analysis of flow visualization
  6857. images, fusion of multiple images and  visualization  of  medical
  6858. images.
  6859.  
  6860. In many such applications, computer vision may be used to aid and
  6861. complement  human  analysis.  For example, computer vision may be
  6862. applied for selective visualization, where the image  display  is
  6863. preceded  by image analysis to isolate regions of interest in the
  6864. data. Such regions of interest could be edges  in  data, or areas
  6865. around  singularities.   Techniques  such  as  edge detection and
  6866. segmentation could be extended to data that are  not  necessarily
  6867. visual, e.g.  financial or geographic data.
  6868.  
  6869. Computer  vision  could  benefit  from  techniques  developed  in
  6870. visualization, such as the fusion of multiple images for display,
  6871. visualization  of reconstruction techniques, display  of   multi-
  6872. dimensional  vector  fields, etc.
  6873.  
  6874. We  invite  both  theoretical  and  application  oriented  papers
  6875. exploring  any  aspect  of  the  interaction  between  these  two
  6876. disciplines.  Suggested topics are listed below. This list is not
  6877. exhaustive and other relevant papers are welcome.
  6878.  
  6879.  
  6880. SUGGESTED TOPICS
  6881.  
  6882. Fusion of multiple images          Geographical data analysis
  6883. Flow visualization                 Medical Imaging
  6884. Financial   data    analysis       Image databases
  6885. Multimedia techniques              Integration of multiple views
  6886. Marine imaging                     Interactive segmentation
  6887. Visualization of reconstruction techniques
  6888. Evaluation  of visualization techniques
  6889. 3-d in segmentation for visualization
  6890. Analysis of test and measurement data
  6891. Quantitative machine vision techniques
  6892.  
  6893.  
  6894. PAPER SUBMISSION
  6895. Four copies of complete manuscript should be received by
  6896. December 13, 1993 at the address: A. Ravishankar Rao,
  6897. IBM Research, P.O. Box 218, Yorktown Heights, NY 10598, USA.
  6898. Please include the following
  6899.  (a) A title page containing the names and addresses of
  6900.     the authors (including e-mail), and abstract of up to 200 words.
  6901.  (b) A second page with title and abstract only (no author names).
  6902.  (c) Paper -- limited to 25 double spaced pages (12 points, 1 inch
  6903.     margins).
  6904.  
  6905.  
  6906. PROGRAM CHAIR                       PROGRAM CO-CHAIR
  6907. A. Ravishankar Rao                  Ramesh Jain
  6908. IBM Research                        Electrical and Computer Engineering Dept.
  6909. P.O. Box 218                        University of California at San Diego
  6910. Yorktown Hts. NY 10598              La Jolla,  CA 92093
  6911. rao@watson.ibm.com                  jain@ece.ucsd.edu
  6912.  
  6913. PROGRAM COMMITTEE
  6914.  
  6915. Rabi Dutta, Univ. Massachusetts, Amherst     Todd Elvins, U.C. San Diego
  6916. Thomas Huang, U. of Illinois, Urbana         Arie Kaufman, SUNY Stonybrook
  6917. Shih-Ping Liou,  Siemens Inc.                Robin Strickland, U. Arizona
  6918. Demetri Terzopoulos,  Univ. Toronto
  6919.  
  6920. ===============================================================================
  6921.  
  6922. Approved: parallel@hubcap.clemson.edu
  6923. Follow-up: comp.parallel
  6924. Path: bounce-back
  6925. Newsgroups: comp.arch,comp.parallel
  6926. From: thompson@aust.inmos.co.uk ()
  6927. Subject: Crossbar switch info wanted
  6928. Reply-To: thompson@aust.inmos.co.uk ()
  6929. Organization: INMOS Architecture Group
  6930.  
  6931. A little while ago, someone posted a summary of recently announced crossbar
  6932. switch chips.  To my chagrin, I find I've lost this information, so I would
  6933. be very grateful if the original poster (or anyone else who kept a copy)
  6934. could e-mail it to me.  Thank you.
  6935.  
  6936.  
  6937. --
  6938. Peter Thompson            INTERNET: thompson@inmos.co.uk
  6939. INMOS Ltd                 JANET:    thompson@uk.co.inmos
  6940. 1000 Aztec West           UUCP:     uknet!inmos!thompson
  6941. Bristol BS12 4SQ, U.K.    Telephone: +44 454 616616    FAX: +44 454 617910
  6942.  
  6943. Approved: parallel@hubcap.clemson.edu
  6944. Follow-up: comp.parallel
  6945. Path: bounce-back
  6946. Newsgroups: comp.parallel
  6947. From: manu@CS.UCLA.EDU (Maneesh Dhagat)
  6948. Subject: Parallel Implementations of SETL?
  6949. Organization: UCLA, Computer Science Department
  6950.  
  6951. Hi,
  6952.  
  6953. Are there any parallel implementations of SETL?
  6954.  
  6955. I know that Paralation Lisp, CM Lisp, SQL, APL, etc.
  6956. come in a similar class of (collection-oriented)
  6957. languages, but I want to specifically know if
  6958. SETL has been implemented on parallel machines.
  6959.  
  6960. If you can email me any references/ftp sites,
  6961. it would be much appreciated.
  6962.  
  6963.                    --Maneesh Dhagat
  6964. -- 
  6965. ---------------------------------------------------
  6966. Maneesh Dhagat (manu@cs.ucla.edu)
  6967. University of California, Los Angeles, CA 90024
  6968. ---------------------------------------------------
  6969.  
  6970. Approved: parallel@hubcap.clemson.edu
  6971. Follow-up: comp.parallel
  6972. Path: bounce-back
  6973. Newsgroups: comp.parallel
  6974. From: lernst@SSD.intel.com (Linda Ernst)
  6975. Subject: OS Designers, Intel SSD, Beaverton, OR, USA
  6976. Organization: Supercomputer Systems Division (SSD), Intel
  6977.  
  6978. The Supercomputing Systems Division of Intel, has positions available now
  6979. in Beaverton, Oregon for Senior Software Engineers, Operating Systems.
  6980.  
  6981. We are a leading supplier of massively parallel supercomputers, which
  6982. run a fully distributed version of OSF1/AD (Mach microkernel, Unix server)
  6983. on 1000+ nodes, producing 100s of gigaFLOPS and terabytes of data.
  6984. Not for the faint of heart :-)
  6985.  
  6986. Job descriptions are attached.
  6987.  
  6988. Please mail resumes (please ABSOLUTELY no FAXes, no phone calls, no e-mail):
  6989.  
  6990.   Linda Ernst
  6991.   c/o Intel Corporation
  6992.   Mail Stop CO1-01
  6993.   5200 N.E. Elam-Young Parkway
  6994.   Hillsboro, OR 97124-6497
  6995.  
  6996. ===============================================================================
  6997.  
  6998. Position #1: Operating System Designer, Memory Management
  6999.     
  7000. Description:
  7001.     Specify, design, prototype and implement an advanced distributed memory
  7002.     management architecture in a Mach/Unix-based operating system for
  7003.     Intel's next generation parallel supercomputer. Includes collaboration
  7004.     with with internal and academic applications researchers to provide
  7005.     high performance operating system support for new parallel programming
  7006.     models.
  7007.  
  7008. Education and Skills:
  7009.     Minimum BSCS, Masters preferred, 6 to 10 years programming experience,
  7010.     3 to 5 years operating system design and development experience.
  7011.     Solid knowledge of high performance system design, Unix internals,
  7012.     microkernel operating systems, distributed and parallel architectures.
  7013.     Multicomputer and scalable operating system experience a plus, experience
  7014.     in the areas of supercomputing a plus.  Design experience with memory
  7015.     management required.
  7016.  
  7017. ===============================================================================
  7018.  
  7019. Position #2: Operating System Designer, Message Passing
  7020.  
  7021. Description:
  7022.     Design, prototype and implement message passing-related features,
  7023.     and new message passing protocols, in a Mach/Unix-based operating
  7024.     system for Intel's next generation parallel supercomputer.
  7025.  
  7026. Education and Skills:
  7027.     Minimum BSCS, Masters preferred, 5 to 8 years programming experience,
  7028.     2 to 5 years operating system design and development experience.
  7029.     Solid knowledge of high performance system design, Unix internals,
  7030.     microkernel operating systems, distributed and parallel architectures.
  7031.     Multicomputer operating system experience a plus, experience in the
  7032.     areas of supercomputing a plus.  Experience with message passing
  7033.     highly desirable.
  7034.  
  7035.  
  7036. Approved: parallel@hubcap.clemson.edu
  7037. Follow-up: comp.parallel
  7038. Path: bounce-back
  7039. Newsgroups: comp.parallel
  7040. From: suh@rainbow.dcrt.nih.gov (Edward Suh)
  7041. Subject: Parallel Bin Packing Algorithm
  7042. Reply-To: suh@rainbow.dcrt.nih.gov
  7043. Organization: National Institutes of Health
  7044.  
  7045. I am looking for parallel bin packing algorithms.  I would appreciate
  7046. if anyone send me or point me to references or algorithms.
  7047.  
  7048. Thanks.
  7049.  
  7050.  
  7051. ----------------------------------------------------------------------
  7052. Edward B. Suh                        Phone: (301) 480-3835
  7053. Bldg. 12A, Room 2029                    Internet: suh@alw.nih.gov
  7054. National Institutes of Health
  7055. Bethesda, MD 20892
  7056.  
  7057. Approved: parallel@hubcap.clemson.edu
  7058. Follow-up: comp.parallel
  7059. Path: bounce-back
  7060. Newsgroups: comp.parallel
  7061. From: hksung@helios.ece.arizona.edu (Hongki Sung)
  7062. Subject: References to parallel algorithms?
  7063. Organization: U of Arizona Electrical and Computer Engineeering
  7064.  
  7065. Can anyone help me in finding references for the following parallel algorithms
  7066. on various interconnection topologies such as Boolean cube, mesh/torus, etc...
  7067.  
  7068.  - FFT
  7069.  - Sorting
  7070.  - Matrix algorithms (sum, multiplication, ...)
  7071.  - and other representative parallel algorithms
  7072.  
  7073. Thanks in advance.
  7074.  
  7075.         Hongki
  7076.         hksung@ece.arizona.edu
  7077.  
  7078. Approved: parallel@hubcap.clemson.edu
  7079. Follow-up: comp.parallel
  7080. Path: bounce-back
  7081. Newsgroups: comp.parallel
  7082. From: karent@quip.eecs.umich.edu (Karen A. Tomko)
  7083. Subject: Harwell-Boeing Sparse Matrix Collection
  7084. Organization: University of Michigan EECS Dept., Ann Arbor, MI
  7085.  
  7086. Is the Harwell-Boeing sparse matrix collection available by anonymous 
  7087. ftp? How about the "Users' Guide for the Harwell-Boeing sparse matrix 
  7088. collection"?
  7089.  
  7090. Thanks in advance,
  7091. Karen
  7092.  
  7093. -- 
  7094. Karen Tomko
  7095. karent@eecs.umich.edu
  7096. Graduate Student Research Assistant
  7097. University of Michigan
  7098.  
  7099. Approved: parallel@hubcap.clemson.edu
  7100. Follow-up: comp.parallel
  7101. Path: bounce-back
  7102. Newsgroups: comp.parallel
  7103. From: jd@viz.cs.unh.edu (Jubin P Dave)
  7104. Subject: Recursive tree traversal in C*
  7105. Organization: University of New Hampshire  -  Durham, NH
  7106.  
  7107. hello all,
  7108.     i would like to tap into the collective wisdom of the internet to
  7109. solve a particularly vexing problem that i am faced with.
  7110.  
  7111. i am trying to implement a radiosity algorithm using C*.  i have a BSP tree
  7112. which i need to traverse to create a front to back list of polygons. 
  7113. As C* lacks parallel pointers i use arrays to immplement my tree.
  7114.  
  7115. now my problem is that as function calls are scalar code i cannot use the
  7116. usual "where" control structures and call the same routine recursively.
  7117. doing so means going into an infinite loop.
  7118.  
  7119. is there anyway to overcome this ? any and all help will be higihly appreciated.
  7120.  
  7121. you can mail me at jd@viz.cs.unh.edu 
  7122.  
  7123. thanks
  7124.  
  7125. jubin
  7126. __
  7127. i plan to live forever or die in the attempt
  7128.  
  7129.  
  7130. Approved: parallel@hubcap.clemson.edu
  7131. Follow-up: comp.parallel
  7132. Path: bounce-back
  7133. Newsgroups: comp.parallel
  7134. Date: Tue, 12 Oct 93 21:58:15 PDT
  7135. From: ahicken@parasoft.com (Arthur Hicken)
  7136. Subject: Parallel Programming Class
  7137.  
  7138.     Hands-on Parallel/Distributed Programming Courses offered.
  7139.  
  7140. ParaSoft Corporation, the leader in distributed and parallel computing
  7141. tools, will conduct a hands on, introductory  course on the theory and
  7142. practice of distributed and parallel computing.  This unique, hands-on
  7143. focus of this course, 75% of the total time, assures that participants
  7144. will  gain  a  practical  understanding  of  distributed  computing
  7145. applications.  Each participant  will program on a workstation  linked
  7146. to a network  within the lab, to  demonstrate  and verify  theoretical
  7147. concepts presented in the seminar.
  7148.  
  7149.  
  7150. This course has been timed to take place after the end of the Cluster 
  7151. Workship at Florida State, so you can plan to attend both if you'd
  7152. like.
  7153.  
  7154. Course Goals:  
  7155. Upon completion of the course, the participant will be able to:
  7156.  
  7157.    1.  Set up a simple job dispatcher with dynamic load balancing.
  7158.    2.  Build an application which runs on multiple platforms.
  7159.    3.  Implement process communication for tightly coupled applications.
  7160.  
  7161. Course Content:
  7162.  
  7163.    1. Theory - Introduction to parallel/distributed computing,
  7164.            programming models, programming environments.
  7165.  
  7166.    2. Labs   - Machine setup, Running parallel/distributed programs,
  7167.            basic parallel/distributed I/O, message passing,
  7168.            global operations, data decomposition, heterogeneous computing.
  7169.  
  7170.  
  7171. Prerequisites:  
  7172.    1.  Working knowledge of C or Fortran.
  7173.    2.  Familiarity with Unix
  7174.    3.  Strong desire to learn about distributed computing.
  7175.  
  7176.  
  7177. Dates      :  Friday, December 10 - Sunday, December 12 
  7178.  
  7179. Location   :  Florida State University, Tallahassee, Florida  
  7180.  
  7181. Instructors:  Dr.  Adam Kolawa - World wide expert and lecturer on
  7182.                                  distributed computing
  7183.  
  7184.  
  7185. Lab Setup:  Each participant will develop distributed applications at
  7186. a workstation on a network within the lab.
  7187.  
  7188.  
  7189. Cost:  $495 - includes a complete set of tutorial materials and
  7190. Express manuals. Lunches and the evening receptions are included.
  7191. Cost can be credited toward purchase of Express, or toward
  7192. application development services.
  7193.  
  7194. Educational Discount: Only $200 for university personnel and students.
  7195.  
  7196.  
  7197. Participation:  Strictly limited to 15 people.  Please call or send 
  7198. email to parasoft early to reserve your space. Applications are accepted
  7199. on a first-come, first-serve basis. 
  7200.  
  7201.  
  7202. Additional Courses are available to graduates from the Level I course:
  7203. Level II - 3 days.  Covers parallel/distributed: debugging, graphics,
  7204.             performance monitoring, parallelization techniques,
  7205.             asynchronous programming, basic parallel/distributed
  7206.             application skeletons, etc.
  7207.  
  7208. Level III - 3 days. Covers application of topics learned in the level I
  7209.                     and II courses by applying these techniques on real
  7210.             applications.
  7211.  
  7212.  
  7213. A copy of the transparencies used in the course can be obtained from
  7214. the ParaSoft anonymous ftp server at ftp.parasoft.com (192.55.86.17)
  7215. in the /express/classes directory.
  7216.  
  7217. For more information contact:
  7218.  
  7219. ParaSoft Corporation
  7220. 2500 E. Foothill Blvd.
  7221. Pasadena, CA 91107-3464
  7222. voice: (818) 792-9941
  7223. fax  : (818) 792-0819
  7224. email: info@parasoft.com
  7225.  
  7226. Approved: parallel@hubcap.clemson.edu
  7227. Follow-up: comp.parallel
  7228. Path: bounce-back
  7229. Newsgroups: comp.parallel
  7230. Sender: news@ford.ee.up.ac.za (NetNews Daemon)
  7231. From: reyn-jj@mella.ee.up.ac.za
  7232. Subject: REAL TIME compression algorith
  7233.  
  7234. I'm looking for a real time compression algorith or sorce code. Any help 
  7235. will be appreciate.
  7236.  
  7237. Thanx
  7238.  
  7239. Approved: parallel@hubcap.clemson.edu
  7240. Follow-up: comp.parallel
  7241. Path: bounce-back
  7242. Newsgroups: comp.parallel
  7243. From: debit@lanpc1.univ-lyon1.fr (Naima Debit)
  7244. Subject: scientific parallel computing workshop
  7245. Organization: Laboratoire d'Analyse Numerique - PC Linux
  7246.  
  7247.                   SCIENTIFIC PARALLEL COMPUTING WORKSHOP
  7248.                   **************************************        
  7249.                         Thursday, October 21st 1993
  7250.                         ***************************
  7251.  
  7252.  
  7253.                   (Seminar room, Building 006-cafeteria)
  7254.  
  7255.  
  7256.   9:00 -  9:15   Opening by J. F. Maitre, Chairman of URA 740 
  7257.  
  7258.   9:20 - 10:00   M. Cosnard, LIP-ENS of Lyon
  7259.                  On the methodologies of parallel programming
  7260.  
  7261.  10:00 - 10:40   G. Meurant, CEA Saclay
  7262.                  CEA/DAM projects in parallel computating
  7263.  
  7264.  10:40 - 11:00   Coffee Break
  7265.  
  7266.  11:00 - 11:40   S. Hawkinson, INTEL 
  7267.                  INTEL Applications ...
  7268.                         
  7269.  11:40 - 12:20   A. Dervieux, INRIA Sophia-Antipolis
  7270.                  On the implementation of parallel algorithms in unstructured
  7271.                  meshes
  7272.  
  7273.  12:20 - 14:00   Lunch
  7274.  
  7275.  14:00 - 14:40   D. Keyes, Old Dominion University & Yale University
  7276.                  Parallel Implicit Methods in Computational Fluid Dynamics
  7277.  
  7278.  14:40 - 15:20   P. Le Tallec, University of Paris Dauphine & INRIA Rocquencourt 
  7279.                  Domain Decomposition Methods in Mechanics: recent 
  7280.                  improvements and parallel implementation issues}
  7281.  
  7282.  15:20 - 16:00   M. Garbey, University of Lyon 1 
  7283.                  Domain Decomposition, Asymptotic Analysis and Numerical 
  7284.                  Simulation on parallel architecture
  7285.  
  7286.  16:00 - 16:20   Coffee Break
  7287.  
  7288.  16:20 - 17:10   H.G. Kaper and D. Levine, Argonne National Laboratory 
  7289.                  Argonne's computational science project in super-conductivity
  7290.  
  7291.  17:10 - 17:50   J. Periaux, Dassault Aviations
  7292.                  Grand Challenge Problem and parallel computing
  7293.  
  7294.     18:00        Official opening of the "Centre pour le Developpement du
  7295.                  Calcul Scientifique Parallele"
  7296.  
  7297.  ***** This conference is open to any scientist with no registration fees. *****
  7298.                                        
  7299.  
  7300.         LABORATOIRE D'ANALYSE NUMERIQUE,  UNIVERSITE CLAUDE BERNARD LYON 1
  7301.       Batiment 101 ; 43 bd du 11 Novembre 1918, 69622 Villeurbanne cedex
  7302.   Telephone: 72 44 80 55 ou 72 43 10 93    E-mail: garbey@lan1.univ-lyon1.fr
  7303.  
  7304. Approved: parallel@hubcap.clemson.edu
  7305. Follow-up: comp.parallel
  7306. Path: bounce-back
  7307. Newsgroups: comp.parallel
  7308. From: walker@rios2.epm.ornl.gov (David Walker)
  7309. Subject: SHPCC94 Call for Papers etc.
  7310.  
  7311.  
  7312.               THE 1994 SCALABLE HIGH PERFORMANCE COMPUTING CONFERENCE
  7313.            
  7314.                     SHPCC94
  7315.  
  7316.             DEADLINE FOR EXTENDED ABSTRACTS OF PAPERS: November 1, 1993
  7317.  
  7318.  
  7319.                   KNOXVILLE, TENNESSEE, U.S.A., MAY 23 - 25, 1994
  7320.  
  7321. GENERAL CHAIR:  Jack Dongarra
  7322.                 University of Tennessee and Oak Ridge National Laboratory
  7323.         dongarra@cs.utk.edu 615 974-8296 (fax)
  7324.  
  7325. PROGRAM CHAIR:  David W. Walker
  7326.         Oak Ridge National Laboratory
  7327.         walker@msr.epm.ornl.gov 615 574-0680 (fax)
  7328.  
  7329. PROGRAM COMMITTEE:
  7330.    David Bailey, NASA Ames Research Center
  7331.    William Gropp, Argonne National Laboratory
  7332.    Rolf Hempel, Gesellschaft fur Mathematik und Datenverarbeitung, Germany
  7333.    Anthony Hey, University of Southampton
  7334.    Charles Koelbel, Rice University
  7335.    Steve Otto, Oregon Graduate Institute
  7336.    Cherri Pancake, Oregon State University
  7337.    Paul Pierce, Intel Supercomputer Systems Division
  7338.    Sanjay Ranka, Syracuse University
  7339.    Gary Sabot, Thinking Machines Corporation
  7340.    Robert Schreiber, NASA RIACS
  7341.    Bernard Tourancheau, LIP, CNRS, Ecole Normale Superieure de Lyon, France
  7342.    Robert van de Geijn, University of Texas, Austin
  7343.    Katherine Yelick, University of California, Berkeley
  7344.  
  7345. SPONSORED BY:   IEEE Computer Society
  7346.  
  7347. The 1994 Scalable High Performance Computing Conference (SHPCC94) is 
  7348. a continuation of the highly successful Hypercube Concurrent Computers 
  7349. and Applications (HCCA), and Distributed Memory Concurrent Computing (DMCC) 
  7350. conference series. SHPCC takes place biennially, alternating with the 
  7351. SIAM Conference on Parallel Processing for Scientific Computing.
  7352.  
  7353. INVITED SPEAKERS:
  7354.    Guy Blelloch, Carnegie Mellon University
  7355.    Phil Colella, University of California, Berkeley
  7356.    David Culler, University of California, Berkeley
  7357.    Monica Lam, Stanford University
  7358.    Marc Snir, IBM T.J. Watson Research Center
  7359.  
  7360. SHPCC94 will provide a forum in which researchers in the field of high 
  7361. performance computing from government, academia, and industry can 
  7362. presents results and exchange ideas and information. SHPCC94 will cover 
  7363. a broad range of topics relevant to the field of high performance 
  7364. computing. These topics will include, but are not limited to, the following;
  7365.  
  7366.     Architectures                 Load Balancing
  7367.     Artificial Intelligence       Linear Algebra
  7368.     Compilers                     Neural Networks
  7369.     Concurrent Languages          Non-numerical Algorithms
  7370.     Fault Tolerance               Operating Systems
  7371.         Image Processing              Programming Environments
  7372.     Large-scale Applications      Scalable Libraries
  7373.         C++
  7374.  
  7375. THE SHPCC94 program will include invited talks, contributed talks, posters, and
  7376. tutorials. SHPCC94 will take place at the Holiday Inn Convention Center in 
  7377. Knoxville, Tennessee. Registration details will be made available later.
  7378.  
  7379. Instructions for Submitting Papers
  7380. ----------------------------------
  7381.  
  7382. Authors are invited to submit contributed papers describing original 
  7383. work that makes a significant contribution to the design and/or use of high 
  7384. performance computers.  All contributed papers will be refereed by at least 
  7385. three qualified persons. All papers presented at the conference will be 
  7386. published in the Conference Proceedings.
  7387.  
  7388. 1. Submit 3 copies of an extended abstract of approximately 4 pages. Abstracts 
  7389.    should include a succinct statement of the problems that are considered 
  7390.    in the paper, the main results achieved, an explanation of the significance 
  7391.    of the work, and a comparison with past research. To ensure a high academic 
  7392.    standard, the abstracts of all contributed papers will be refereed.
  7393.  
  7394.    DEADLINE FOR EXTENDED ABSTRACTS OF PAPERS: November 1, 1993
  7395.    Authors will be notified of acceptance by January 14, 1994
  7396.  
  7397.    DEADLINE FOR FINAL CAMERA-READY COPY OF COMPLETE PAPER: February 14, 1994
  7398.    The final complete paper should not exceed 10 pages.
  7399.  
  7400. 2. Each copy of the extended abstract should have a separate title page 
  7401.    indicating that the paper is being submitted to SHPCC94. The title page 
  7402.    should also give the title of the paper and the names and addresses of 
  7403.    the authors. The presenting author, and the author to whom notification 
  7404.    of acceptance should both be sent, should be clearly indicated on the title 
  7405.    page, together with their phone, fax, and email.
  7406.  
  7407. 3. Extended abstracts should be sent to the Program Chair, David Walker, 
  7408.    at the address above.
  7409.  
  7410. Poster Presentations
  7411. --------------------
  7412. Poster presentations are intended to provide a more informal forum in which to
  7413. present work-in-progress, updates to previously published work, and 
  7414. contributions not suited for oral presentation. To submit a poster 
  7415. presentation send a short (less than one page) abstract to the Program Chair, 
  7416. David Walker, at the address above. Poster presentations will not appear 
  7417. in the Conference Proceedings.
  7418.  
  7419.    DEADLINE FOR SHORT ABSTRACTS OF POSTERS:   November 1, 1993
  7420.    Poster presenters will be notified of acceptance by January 14, 1994
  7421.  
  7422. Abstracts for poster presentations must include all the information referred 
  7423. to in (2) above. If this will not fit on the same page as the abstract, 
  7424. then a separate title page should be provided.
  7425.  
  7426. Instructions for Proposing a Tutorial
  7427. -------------------------------------
  7428.  
  7429. Half-day and full-day tutorials provide opportunity for a researchers and 
  7430. students to expand their knowledge in specific areas of high performance 
  7431. computing. To propose a tutorial, send a description of the tutorial and 
  7432. its objectives to the Program Chair, David Walker, at the address above. 
  7433. The tutorial proposal should include:
  7434.  
  7435.    1. A half-page abstract giving an overview of the tutorial.
  7436.    2. A detailed description of the tutorial, its objectives, and intended
  7437.       audience.
  7438.    3. A list of the instructors, with a brief biography of each.
  7439.  
  7440. All tutorials will take place on May 22, 1994.
  7441.  
  7442.    DEADLINE FOR TUTORIAL PROPOSALS:   November 1, 1993
  7443.    Tutorial proposers will be notified of acceptance by January 14, 1994
  7444.  
  7445. For further information contact David Walker at walker@msr.epm.ornl.gov
  7446.  
  7447.  
  7448. Approved: parallel@hubcap.clemson.edu
  7449. Follow-up: comp.parallel
  7450. Path: bounce-back
  7451. From: olsen@HING.LCS.MIT.EDU (James Olsen)
  7452. Newsgroups: comp.arch,comp.parallel
  7453. Subject: Optical interconnect thesis available via ftp
  7454. Organization: MIT Laboratory for Computer Science
  7455.  
  7456. For those who might be interested, my recent MIT PhD thesis,
  7457. "Control and Reliability of Optical Networks in Multiprocessors", is
  7458. now available in both Postscript and LaTeX formats via anonymous
  7459. FTP.  The files are on hing.lcs.mit.edu, in the directory pub/olsen.
  7460.  
  7461. Here is a shortened abstract:
  7462. --------------------------------------------------------------
  7463. Control and Reliability of Optical Networks in Multiprocessors
  7464.  
  7465. James J. Olsen  -  Ph.D. Thesis  -  MIT EECS Dept.  -  May 1993
  7466.  
  7467. Optical communication links have great potential to improve the
  7468. performance of interconnection networks within large parallel
  7469. multiprocessors, but semiconductor laser drive control and reliability
  7470. problems inhibit their wide use.  This thesis describes a number of
  7471. system-level solutions to these problems.  The solutions are simple
  7472. and inexpensive enough to be practical for implementation in the
  7473. thousands of optical links that might be used in a multiprocessor.
  7474.  
  7475. Semiconductor laser reliability problems are divided into two classes:
  7476. transient errors and hard failures.  It is found that for transient
  7477. errors, the computer system might require a very low bit-error-rate
  7478. (BER), such as 10^-23, without error control.  Optical links cannot
  7479. achieve such rates directly, but a much higher link-level BER (such as
  7480. 10^-7) would be acceptable with simple error detection coding.  A
  7481. feedback system is proposed that will enable lasers to achieve these
  7482. error levels even when laser threshold current varies.  Instead of
  7483. conventional techniques using laser output monitors, a software-based
  7484. feedback system can use BER levels for laser drive control.
  7485. Experiments demonstrate that this method is feasible, and has other
  7486. benefits such as laser wearout tracking and optical loss compensation.
  7487.  
  7488. For hard failures, one can provide redundant spare optical links to
  7489. replace failed ones.  Unfortunately, this involves the inclusion of
  7490. many extra, otherwise unneeded optical links.  A new approach, called
  7491. `bandwidth fallback', is presented which allows continued use of
  7492. partially-failed channels while still accepting full-width data
  7493. inputs, providing high reliability without any spare links.
  7494.  
  7495. It is concluded that the drive control and reliability problems of
  7496. semiconductor lasers should not bar their use in large scale
  7497. multiprocessors, since inexpensive system-level solutions to them are
  7498. possible.
  7499.  
  7500. Thesis Supervisor:  Anant Agarwal
  7501. -- 
  7502. Jim Olsen   -   olsen@cag.lcs.mit.edu
  7503.  
  7504. Approved: parallel@hubcap.clemson.edu
  7505. Follow-up: comp.parallel
  7506. Path: bounce-back
  7507. Newsgroups: comp.arch,comp.parallel
  7508. From: hhlo@IASTATE.EDU (Hsiung-Hui Lo)
  7509. Subject: Re: IEEE Computer Special Issue on Associative Processing and Processors - NEW DATES
  7510. Reply-To: hhlo@IASTATE.EDU (Hsiung-Hui Lo)
  7511. Organization: Iowa State University
  7512.  
  7513. Hi,
  7514. I am working on sparse linear system. Anybody knows how to generate
  7515. spare matrices on parallel machine? I appreciate if you give me that
  7516. information.
  7517.  
  7518. Approved: parallel@hubcap.clemson.edu
  7519. Follow-up: comp.parallel
  7520. Path: bounce-back
  7521. Newsgroups: comp.parallel
  7522. From: cosc19ub@rosie.uh.edu (Li, Sam)
  7523. Subject: topological properties for various internetworking topologies
  7524. Organization: University of Houston
  7525.  
  7526.  
  7527. Hello netters,
  7528.  
  7529.   I am doing some survey report about comparing topological properties for
  7530.   various internetworking topologies, e.g. star, cube, mesh, etc.. I would 
  7531.   appreciate any pointers or references concerning this. Please response
  7532.   via email.
  7533.  
  7534. Sam Li
  7535. cosc19ub@jetson.uh.edu
  7536.  
  7537.  
  7538. Approved: parallel@hubcap.clemson.edu
  7539. Follow-up: comp.parallel
  7540. Path: bounce-back
  7541. Newsgroups: comp.parallel
  7542. from: valerie@cri.ens-lyon.fr (valerie roger)
  7543. subject: ppl contents
  7544. organization: ecole normale superieure de lyon
  7545.  
  7546. Please find hereafter the contents of Parallel Processing Letters, volumes 1 and 2.
  7547. Valerie Roger, LIP, ENS Lyon
  7548. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7549.  
  7550. \begin{document}
  7551.  
  7552.  
  7553. {\bf PARALLEL PROCESSING LETTERS}\\
  7554.  
  7555. Parallel Processing Letters (PPL) aims to disseminate rapidly results in the field of parallel processing in the form of short letters. It will have a wide scope and cover topics such as the design and analysis of parallel and distributed algorithms, the theory of parallel computation, parallel programming languages, parallel programming environments, parallel architectures and VLSI circuits. Original results are published, and experimental results if they contain an analysis corresponding to an abstract model of computation. PPL is be and ideal information vehicle for recent high quality achievements.
  7556.  
  7557. Information can be obtained form the Editor in Chief, Professor Michel Cosnard at cosnard@lip.ens-lyon.fr
  7558.  
  7559. \end{document}
  7560.  
  7561. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7562. \documentstyle[11pt,french,a4]{letter}
  7563. %\title{\bf}
  7564. %\author{\mbox{}}
  7565. %\date{\mbox{}}
  7566. %\pagestyle{empty}
  7567. %\maketitle
  7568. %\parindent=0cm
  7569.  
  7570. \begin{document}
  7571.  
  7572. \begin {center}
  7573.  
  7574. {\bf PARALLEL PROCESSING LETTERS}\\
  7575. CONTENTS - Volume 1 - Number 1 - September 1991
  7576.  
  7577. \end {center}
  7578.  
  7579.  
  7580. \begin {tabular} {p{145mm}r}
  7581.  
  7582. Editorial Note\\
  7583. M. Cosnard & 1\\
  7584. \\
  7585. Determining the Model in Parallel\\
  7586. E.A. Albacea & 3\\
  7587. \\
  7588. Maintaining Digital Clocks in Step\\
  7589. A. Arora, S. Dolev, M. Gouda &    11\\
  7590. \\
  7591. SyNsthesis of Processor Arrays for the Algebraic Path Problem: Unifying Old\\ Results and Deriving New Architectures\\
  7592. T. Risset, Y. Robert &    19\\
  7593. \\
  7594. On the Power of Two-Dimensional Processor Arrays with Reconfigurable Bus\\ Systems\\
  7595. S. Olariu, J. Schwing, J. Zhang & 29\\
  7596. \\
  7597. Additive Spanners for Hypercubes\\
  7598. A.L. Liestman , T.C. Shermer & 35\\
  7599. \\
  7600. Subcube Embeddability of Folded Hypercubes\\
  7601. S. Latifi & 43\\
  7602. \\
  7603. An O(n) Parallel Algorithm for Solving the Traffic ContrOl Problem\\
  7604. on Crossbar Switch Networks\\    
  7605. K.T. Sun, H.C. Fu &     51\\
  7606. \\
  7607. Modelling a Morphological Thinning Algorithm for Shared Memory\\ 
  7608. SIMD Computers\\
  7609. A. Datta, S.V. Joshi, R.N. Mahapatra & 59\\
  7610. \\
  7611. A Note on Off-Line Permutation Routing on a Mesh-Connected Processor\\
  7612. Array\\                
  7613. D. Krizanc & 67\\
  7614.  
  7615. \end {tabular}
  7616.  
  7617. \end{document}
  7618.  
  7619. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7620. \documentstyle[11pt,french,a4]{letter}
  7621. \title
  7622. %\author{\mbox{}}
  7623. %\date{\mbox{}}
  7624. %\pagestyle{empty}
  7625. \maketitle
  7626. \parindent=0cm
  7627. \begin {document}
  7628.  
  7629. \begin {center}
  7630. {\bf PARALLEL PROCESSING LETTERS\\
  7631. CONTENTS - Volume 1 - Number 2 - December 1991}
  7632. \end {center}
  7633.  
  7634. \begin {tabular} {p{145mm}r}
  7635. Editorial Note\\
  7636. M. Cosnard & 71\\
  7637. \\
  7638. Linear Scheduling is Nearly Optimal\\
  7639. A. Darte, L. Khachiyan, Y. Robert & 73\\
  7640. \\
  7641. Specifying Control Signals for Systolic Arrays by Uniform Recurrence\\
  7642. Equations\\
  7643. J. Xue & 83\\
  7644. \\
  7645. Conflict-Free Strides for Vectors in Matched Memories\\
  7646. M. Valero, T. Lang, JM. Llaberia, M. Peiron, JJ. Navarro, E. Ayguadi &    95\\
  7647. \\
  7648. On the Real Power of Loosely Coupled Parallel Architectures\\
  7649. M. Cosnard, A. Ferreira & 103\\
  7650. \\
  7651. Large Sorting and Routing Problems on the Hypercube and Related Networks\\
  7652. G. Manzini & 113\\
  7653. \\
  7654. On Lower Bounds for the Communication Volume in Distributed Systems\\
  7655. UA. Ranawake, PM. Lenders, S.M. Goodnick  & 125\\
  7656. \\
  7657. An Improved Maximal Matching Algorithm\\    
  7658. SB. Yang, SK. Dhall, S. Lakshmivarahan &     135\\
  7659. \\
  7660. Constant Delay Parallel Counters\\
  7661. SG. Akl, T. Duboux, I. Stojmenovic & 143\\
  7662. \\
  7663. Ranking on Reconfigurable Networks\\                
  7664. Y. Ben-Asher, A. Schuster & 149\\
  7665. \\
  7666. On Processing Multi-Joins in Parallel Systems\\
  7667. KL. Tan, H. Lu & 157\\
  7668. \\
  7669. Author Index - Volume 1 (1991) & 165\\
  7670.  
  7671. \end {tabular}
  7672.  
  7673. \end{document}
  7674. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7675.  
  7676. \documentstyle[11pt,french,a4]{letter}
  7677. %\title{\bf}
  7678. %\author{\mbox{}}
  7679. %\date{\mbox{}}
  7680. %\pagestyle{empty}
  7681. %\maketitle
  7682. %\parindent=0cm
  7683.  
  7684. \begin{document}
  7685.  
  7686. \begin {center}
  7687.  
  7688. {\bf PARALLEL PROCESSING LETTERS}\\
  7689. CONTENTS - Volume 2 - Number 1 - March 1992
  7690.  
  7691. \end {center}
  7692.  
  7693.  
  7694. \begin {tabular} {p{145mm}r}
  7695.  
  7696. Editorial Note\\
  7697. M. Cosnard & 1\\
  7698. \\
  7699. Construction of Large Packet Radio Networks\\
  7700. JC Bermond, P. Hell, JJ. Quisquater& 3\\
  7701. \\
  7702. The Cube-Connected Cycles Network is a Subgraph of the Butterfly Network\\
  7703. R. Feldmann, W. Unger &    13\\
  7704. \\
  7705. Distributed Deadlock Detection Algorithms\\
  7706. M. Flatebo, A.K. Datta &    21\\
  7707. \\
  7708. Optimal Tree Ranking is in NC\\
  7709. P. de la Torre, R. Greenlaw, TM. Przytycka & 31\\
  7710. \\
  7711. Descriminating Analysis and its Application to Matrix by Vector \\
  7712. Multiplication on the PRAM\\
  7713. LF. Lindon & 43\\
  7714. \\
  7715. Performance Estimation of LU Factorisation on Message Passing\\
  7716. Multiprocessors\\
  7717. BV. Purushotham, A. Basu, PS. Kumar, LM. Patnaik & 51\\
  7718. \\
  7719. The Combination Technique for the Sparse Grid Solution of PDE's on Multiprocessor Machines\\    
  7720. M. Griebel &     61\\
  7721. \\
  7722. Refined Mark(s)-Set-Based Backtrack Literal Selection for AND Parallelism
  7723. in Logic Programs \\
  7724. DH. Kim, KM. Choe, T. Han & 71\\
  7725. \\
  7726. Mapping Binary Precedence Trees to Hypercubes\\                
  7727. S. Ullman, B. Narahari & 81\\
  7728. \\
  7729. Optimal Subcube Assignment for Partitionable Hypercubes\\
  7730. R. Krishnamurti, B. Narahari & 89\\
  7731. \\
  7732. Synthesizing Linear Systolic Arrays for Dynamic Programming Problems\\
  7733. JF. Myoupo & 97\\
  7734.  
  7735. \end {tabular}
  7736.  
  7737. \end{document}
  7738. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7739.  
  7740. \documentstyle[11pt,a4,french]{article}
  7741.  
  7742. \title{\bf PARALLEL PROCESSING LETTERS\\
  7743. CONTENTS - Volume 2 - Number 2 \& 3 - September 1992}
  7744. \author{\mbox{}}
  7745. \date{\mbox{}}
  7746. \pagestyle{empty}
  7747.  
  7748. \parindent=0cm
  7749.  
  7750. \begin{document}
  7751. \maketitle
  7752.  
  7753. %\begin {center}
  7754. %{\bf PARALLEL PROCESSING LETTERS\\
  7755. %CONTENTS - Volume 2 - Number 2 \& 3 - September 1992}
  7756. %\end {center}
  7757.  
  7758. \begin {tabular} {p{145mm}r}
  7759.  
  7760. Editorial Note\\
  7761. M. Cosnard & 111\\
  7762. \\
  7763. PPL Special Issue on Algorithmic and Structural Aspects of Interconnection\\ Networks : Call for Papers & 115\\
  7764. \\
  7765. Reconfigurable Parallel Computer Architecture Based on Wavelength-Division\\
  7766. Multiplexed Optical Interconnextion Network\\
  7767. KA. Aly, PW. Dowd & 117\\
  7768. \\
  7769. A Reconfiguration Technique for Fault Tolerance in a Hypercube\\
  7770. S Rai, JL. Trahan &    129\\
  7771. \\
  7772. Load Balancing Strategies for Massively Parallel Architectures\\
  7773. A. Corradi, L. Leonardi, F. Zambonelli & 139\\
  7774. \\
  7775. Embedding Mesh in a Large Family of Graphs\\
  7776. WJ. Hsu, CV. Page  & 149\\
  7777. \\
  7778. A Parallel Algorithm for Forest Reconstruction\\    
  7779. S. Olariu, Z. Wen &     157\\
  7780. \\
  7781. Performance Evaluation of Multicast Wormhole Routing in 2D-Torus\\ Multicomputers\\
  7782. CS. Yang, YM Tsai, CY. Liu & 161\\
  7783. \\
  7784. \end{tabular}
  7785.  
  7786. \begin{tabular}{p{145mm}r}
  7787.  
  7788. A Self-Stabilizing Distributed Algorithm to Construct BFS Spanning\\ 
  7789. Trees of a Symmetric Graph\\                
  7790. S. Sur, PK. Srimani & 171\\
  7791. \\
  7792. Approximating Maximum 2-CNF Satisfiability\\
  7793. DJ. Haglin & 181\\
  7794. \\
  7795. DTML is Logspace Hard Under $NC^{1}$ Reductions\\
  7796. R. Sarnarth & 189\\
  7797. \\
  7798. Transitive Closure in Parallel on a Linear Network of Processors\\
  7799. M. Gastaldo, M. Morvan, JM. Robson & 195\\
  7800. \\
  7801. The Pairwise Sorting Network\\
  7802. I. Parberry & 205\\
  7803. \\
  7804. Periodic Sorting on Two-Dimensional Meshes\\
  7805. M. Kutylowski, R. Wanka & 213\\
  7806. \\
  7807. Efficient K-Selection in Hypercube Multiprocessors\\
  7808. P. Berthomi & 221\\
  7809. \\
  7810. A Simple Optimal Systolic Algorithm for Generating Permutations\\
  7811. SG. Akl, I. Stojmenovic & 231\\
  7812. \\
  7813. Systolic Generation of Combinations from Arbitrary Elements\\
  7814. H. Elhage, I. Stojmenovic & 241\\
  7815. \\
  7816. Convex Polygon Problems on Meshes with Multiple Broadcasting\\
  7817. D. Bhagavathi, S. Olariu, JL. Schwing, J. Zhang & 249\\
  7818. \\
  7819. A Parallel Processing Model for Real-Time Computer Vision-Aided Road\\
  7820. Traffic Monitoring\\
  7821. AT. Ali, EL. Dagless & 257\\
  7822. \\
  7823. A Model of Speculative Parallelism\\
  7824. WF. Wong, CK. Yuen & 265\\
  7825. \\
  7826. Unimodularity and the Parallelization of Loops\\
  7827. M. Barnett, C. Lengauer & 273\\
  7828. \\
  7829. An Improvement of Maekawa's Mutual  Exclusion Algorithm to Make it\\
  7830. Fault-Tolerant\\
  7831. A. Bouabdallah, JC. Konig & 283\\
  7832. \\
  7833. On Asynchronous Avoidance of Deadlocks in Parallel Programs\\
  7834. AE. Doroshenko & 291\\
  7835.  
  7836. \end {tabular}
  7837.  
  7838. \end{document}
  7839. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7840.  
  7841. \documentstyle[11pt,french,a4]{letter}
  7842. %\title{\bf}
  7843. %\author{\mbox{}}
  7844. %\date{\mbox{}}
  7845. %\pagestyle{empty}
  7846. %\maketitle
  7847. %\parindent=0cm
  7848.  
  7849. \begin{document}
  7850.  
  7851. \begin {center}
  7852.  
  7853. {\bf PARALLEL PROCESSING LETTERS}\\
  7854. CONTENTS - Volume 2 - Number 4 - December 1992
  7855.  
  7856. \end {center}
  7857.  
  7858.  
  7859. \begin {tabular} {p{145mm}r}
  7860.  
  7861. Editorial Note\\
  7862. M. Cosnard & 299\\
  7863. \\
  7864. Constructing An Exact Parity Base is in $RNC^{2}$\\
  7865. G. Galbiati, F. Maffioli & 301\\
  7866. \\
  7867. Parallel Constructions of Heaps and Min-Max Heaps\\
  7868. S. Carlsson, J. Chen &    311\\
  7869. \\
  7870. Computation List Evaluation and Its Applications\\
  7871. EA. Albacea &    321\\
  7872. \\
  7873. Data Parallel Computation of Euclidean Distance Transforms\\
  7874. T. Bossomaier, N. Isidoro, A. Loeff & 331\\
  7875. \\
  7876. Two Selection Algorithms on A Mesh-Connected Computer\\
  7877. BS. Chlebus & 341\\
  7878. \\
  7879. Channel Classes: A New Concept for Deadlock Avoidance in\\
  7880. Wormhole Networks\\
  7881. J. Duato & 347\\
  7882. \\
  7883. Broadcasting Time in Sparse Networks with Faulty Transmissions\\    
  7884. A. Pelc & 355\\
  7885. \\
  7886. A Low Overhead Schedule for A 3D-Grid Graph\\
  7887. E. Bampis, JC Konig, D. Trystram & 363\\
  7888. \\
  7889. Multi-Rate Arrays and Affine Recurrence Equations\\                
  7890. PM. Lenders & 373\\
  7891. \\
  7892. Simulation of Genetic Algorithms on MIMD Multicomputers\\
  7893. I. De Falco, R. Del Balio, E. Tarantino, R. Vaccaro &  381\\
  7894. \\
  7895. Parallel Buddy Memory Management\\
  7896. T. Johnson, TA. Davis & 391\\
  7897. \\
  7898. Author Index - Volume 2 (1992) & 399\\
  7899.  
  7900. \end {tabular}
  7901.  
  7902. \end{document}
  7903. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7904.  
  7905.  
  7906. ---
  7907. Valerie ROGER    Laboratoire de l'Informatique du Parallelisme
  7908. Ecole Normale Superieure   46, allee d'Italie  69364 LYON CEDEX 07 FRANCE
  7909. Phone    : (+33) 72 72 80 37    EARN/BITNET      : valerie@frensl61.bitnet
  7910. Fax     : (+33) 72 72 80 80    FNET/EUNET/UUNET : valerie@ensl.ens-lyon.fr
  7911.  
  7912.  
  7913.  
  7914. Approved: parallel@hubcap.clemson.edu
  7915. Follow-up: comp.parallel
  7916. Path: bounce-back
  7917. Newsgroups: comp.parallel
  7918. From: wittmann@Informatik.TU-Muenchen.DE (Marion Wittmann)
  7919. Subject: classification of algorithms
  7920. Organization: Technische Universitaet Muenchen, Germany
  7921.  
  7922.   I'm trying to classify parallel algorithms.
  7923.   Especially I'm interested in their characteristial
  7924.   SVM-properties. 
  7925.   Therefor I need some literature about
  7926.   application schemes and classification of algorithms,
  7927.   not only of parallel ones.
  7928.  
  7929.   If you know any literature dealing with this subject,
  7930.   please mail
  7931.   
  7932.      wittmann@informatik.tu-muenchen.de
  7933.  
  7934.   Thanks for your help
  7935.  
  7936. Approved: parallel@hubcap.clemson.edu
  7937. Follow-up: comp.parallel
  7938. Path: bounce-back
  7939. Newsgroups: comp.parallel,comp.sys.super,ch.general
  7940. From: rehmann@cscs.ch (Rene M. Rehmann)
  7941. Subject: 2nd CFP: IFIP WG10.3 conference on programming environments, Switzerland
  7942. Organization: Centro Svizzero di Calcolo Scientifico (CSCS), Manno, Switzerland
  7943.  
  7944.              2nd Announcement
  7945.  
  7946.                      CALL FOR PAPERS
  7947.  
  7948.                 IFIP WG10.3
  7949.                WORKING CONFERENCE ON
  7950.             PROGRAMMING ENVIRONMENTS FOR 
  7951.            MASSIVELY PARALLEL DISTRIBUTED SYSTEMS
  7952.  
  7953.                   April 25 - 30, 1994
  7954.             Monte Verita, Ascona, Switzerland
  7955.         
  7956.  
  7957.  
  7958. Massively parallel systems with distributed resources will play a very
  7959. important role for the future of high performance computing.  One of
  7960. the current obstacles of these systems is their difficult programming.
  7961. The proposed conference will bring together active researchers who are
  7962. working on ways how to help programmers to exploit the performance
  7963. potential of massively parallel systems. The working conference will
  7964. consist of sessions for full and short papers, interleaved with poster
  7965. and demonstration sessions.
  7966.  
  7967. The Conference will be held April 25 - 30, 1994 at the Centro Stefano
  7968. Franscini, located in the hills above Ascona at Lago Maggiore, in the
  7969. southern part of Switzerland.  It is organized by the Swiss Scientific
  7970. Computing Center CSCS ETH Zurich. The conference is the forthcoming
  7971. event of the working group WG 10.3 of the International Federation for
  7972. Information Processing (IFIP) on Programming Environments for Parallel
  7973. Computing.  The conference succeeds the 1992 Edinburgh conference on
  7974. Programming Environments for Parallel Computing.
  7975.  
  7976.  
  7977. SUBMISSION OF PAPERS
  7978.  
  7979. Submission of papers is invited in the following areas:
  7980.  
  7981.     -- Programming models for parallel distributed computing
  7982.     -- Computational models for parallel distributed computing
  7983.     -- Program transformation tools
  7984.     -- Concepts and tools for the design of parallel distributed
  7985.          algorithms
  7986.     -- Reusability in parallel distributed programming
  7987.     -- Concepts and tools for debugging massively parallel
  7988.          systems (100+ processing nodes)
  7989.     -- Concepts and tools for performance monitoring of massively
  7990.          parallel systems (100+ processing nodes)
  7991.     -- Tools for application development on massively parallel
  7992.          systems
  7993.     -- Support for computational scientists: what do they really need ?
  7994.     -- Application libraries (e.g., BLAS, etc.) for parallel distributed
  7995.          systems: what do they really offer ?
  7996.     -- Problem solving environments for parallel distributed programming
  7997.  
  7998.  
  7999. Authors are invited to submit complete, original, papers reflecting
  8000. their current research results. All submitted papers will be refereed
  8001. for quality and originality. The program committee reserves the right
  8002. to accept a submission as a long, short, or poster presentation paper.
  8003.  
  8004. Manuscripts should be double spaced, should include an abstract, and
  8005. should be limited to 5000 words (20 double spaced pages); The contact
  8006. authors are requested to list e-mail addresses if available.  Fax or
  8007. electronic submissions will not be considered.
  8008.  
  8009. Please submit 5 copies of the complete paper to the following address:
  8010.  
  8011. PD Dr. Karsten M. Decker
  8012. IFIP 94
  8013. CSCS-ETH Zurich
  8014. Via Cantonale
  8015. CH-6928 Manno
  8016. Switzerland
  8017.  
  8018.  
  8019. IMPORTANT DATES
  8020.  
  8021. Deadline for submission:     December 1, 1993
  8022. Notification of acceptance:  February 1, 1994
  8023. Final versions:             March 1, 1994
  8024.  
  8025.  
  8026. CONFERENCE CHAIR
  8027.  
  8028. Karsten M. Decker
  8029. CSCS-ETH Zurich
  8030. Via Cantonale
  8031. CH-6928 Manno
  8032. Switzerland
  8033. phone:  +41 (91) 50 8233
  8034. fax:    +41 (91) 50 6711
  8035. e-mail: decker@serd.cscs.ch
  8036.  
  8037.  
  8038. ORGANIZATION COMMITTEE CHAIR
  8039.  
  8040. Rene M. Rehmann
  8041. CSCS-ETH Zurich
  8042. Via Cantonale
  8043. CH-6928 Manno
  8044. Switzerland
  8045. phone:  +41 (91) 50 8234
  8046. fax:    +41 (91) 50 6711
  8047. e-mail: rehmann@serd.cscs.ch
  8048.  
  8049.  
  8050. PROGRAM COMMITTEE
  8051.  
  8052. Francoise Andre, IRISA, France
  8053. Thomas Bemmerl, Intel Corporation, Germany
  8054. Arndt Bode, Technical University Muenchen, Germany
  8055. Helmar Burkhart, University Basel, Switzerland
  8056. Lyndon J. Clarke, University of Edinburgh, UK
  8057. Michel Cosnard, Ecole Normale Superieure de Lyon, France
  8058. Karsten M. Decker, CSCS-ETH Zurich, Switzerland
  8059. Thomas Fahringer, University of Vienna, Austria
  8060. Claude Girault, University P.et M. Curie Paris, France
  8061. Anthony J. G. Hey, University of Southhampton, UK
  8062. Roland N. Ibbett, University of Edinburgh, UK
  8063. Nobuhiko Koike, NEC Corporation, Japan
  8064. Peter B. Ladkin, University of Stirling, UK
  8065. Juerg Nievergelt, ETH Zurich, Switzerland
  8066. Edwin Paalvast, TNO-TPD, The Netherlands
  8067. Gerard Reijns, Delft University of Technology, The Netherlands
  8068. Eugen Schenfeld, NEC Research Institute, USA
  8069. Clemens-August Thole, GMD, Germany
  8070. Owen Thomas, Meiko, UK
  8071. Marco Vanneschi, University of Pisa, Italy
  8072. Francis Wray, Cambridge, UK
  8073.  
  8074.  
  8075. MONTE VERITA, ASCONA, SWITZERLAND
  8076.  
  8077. Centro Stefano Franscini, Monte Verita, located in the scenic hills
  8078. above Ascona, with a beautiful view on Lago Maggiore, has excellent
  8079. conference and housing facilities for about sixty participants.  Monte
  8080. Verita enjoys a sub-alpine/mediterranean climate with mean temperatures
  8081. between 15 and 18 C in April.
  8082.  
  8083. The closest airport to Centro Stefano Franscini is Lugano-Agno which is
  8084. connected to Zurich, Geneva and Basle and many other cities in Europe
  8085. by air. Centro Stefano Franscini can also be reached conveniently by
  8086. train from any of the three major airports in Switzerland to Locarno by
  8087. a few hours scenic trans-alpine train ride. It can also be reached from
  8088. Milano in less than three hours.
  8089.  
  8090. For more information, send email to ifip94@cscs.ch
  8091. For a PostScript-version of the CFP, anon-ftp to:
  8092.     pobox.cscs.ch:/pub/SeRD/IFIP94/CALL_FOR_PAPERS.ps
  8093.  
  8094. Karsten M. Decker, Rene M. Rehmann
  8095.  
  8096. ---
  8097. Rene Rehmann                                    phone:   +41 91 50 82 34
  8098. Section for Research and Development (SeRD)     fax  :   +41 91 50 67 11
  8099. Swiss Scientific Computing Center CSCS          email:   rehmann@cscs.ch
  8100. Via Cantonale, CH-6928 Manno, Switzerland
  8101.  
  8102.  
  8103.  
  8104. Approved: parallel@hubcap.clemson.edu
  8105. Follow-up: comp.parallel
  8106. Path: bounce-back
  8107. Newsgroups: comp.parallel
  8108. Date: Thu, 14 Oct 93 09:02:12 EDT
  8109. From: Peter Su <psu+@cs.cmu.edu> 
  8110. Subject: Re: 12 ways
  8111. Organization: School of Computer Science, Carnegie Mellon
  8112.  
  8113. "ENM" == Eugene N Miya <eugene@nas.nasa.gov> writes:
  8114.  
  8115. ENM> Multilate the algorithm used in the parallel implementation to
  8116. ENM> match the architecture.
  8117.  
  8118. Where is the line between reasonable amounts of optimization and
  8119. 'mutilating the algorithm'?
  8120.  
  8121. If I take and implementation of an algorithm that does not vectorize
  8122. well (say), and 'mutilate' it into an implementation that does, is
  8123. that fair from the standpoint of good benchmarking?
  8124.  
  8125. Say I do the same thing, but hack the code so it uses the CM-5 vector
  8126. units, which are not yet well supported by all of TMC's compilers.  Is
  8127. that fair?
  8128.  
  8129. Or, do I, for the purposes of benchmarking, have to regard the
  8130. vendor's brain-dead compiler as part of the system.  Aren't we trying
  8131. to figure out how good the *hardware* is, not the hardware+compiler?
  8132.  
  8133. Why benchmark a parallel computer on code that doesn't parallelize
  8134. well?
  8135.  
  8136. Enquiring minds want to know.
  8137.  
  8138. Pete
  8139.  
  8140.  
  8141. --
  8142.  
  8143. Approved: parallel@hubcap.clemson.edu
  8144. Follow-up: comp.parallel
  8145. Path: bounce-back
  8146. Newsgroups: comp.parallel
  8147. Date: Thu, 14 Oct 93 08:18:55 -0700
  8148. From: eugene@nas.nasa.gov (Eugene N. Miya)
  8149. Subject: Attribution (ENM)
  8150.  
  8151. While I have the comp.bench FAQ, the proper attribution is David Bailey.
  8152. I suggest finding the reference for a further elaboration.  You can also
  8153. contact Dr. Bailey.
  8154.  
  8155.  
  8156. Approved: parallel@hubcap.clemson.edu
  8157. Follow-up: comp.parallel
  8158. Path: bounce-back
  8159. Newsgroups: comp.parallel
  8160. Subject: Help---references to CORDIC algorithm
  8161. Date: Fri, 15 Oct 1993 00:32:11 JST
  8162. From: Shigeru Ishimoto <ishimoto@jaist.ac.jp>
  8163.  
  8164. Dear Grouper,
  8165.  
  8166. I am looking for the paper on CORDIC algorithm which discovered in the
  8167. period 1960-1970. The algorithm was discovered again by Dr. Richard Feynman
  8168. in 1980's.
  8169. Could anyone give me information.
  8170.  
  8171. Thanks,
  8172. -----
  8173.  _____
  8174.    |  A I S T   Shigeru Ishimoto  (ishimoto@jaist.ac.jp)
  8175.    |  HOKURIKU  18-1 Asahidai Tatsunokuchichou Nomigun Ishikawaken Japan
  8176. o_/   1 9 9 0   Japan Advanced Institute of Science and Technology,Hokuriku
  8177.  
  8178.  
  8179. Approved: parallel@hubcap.clemson.edu
  8180. Follow-up: comp.parallel
  8181. Path: bounce-back
  8182. From: fsang@kira.lerc.nasa.gov (Angela Quealy)
  8183. Newsgroups: comp.parallel.pvm,comp.parallel
  8184. Subject: other DQS users?
  8185. Organization: NASA Lewis Research Center [Cleveland, Ohio]
  8186.  
  8187. We recently acquired DQS for use at our site, and we are trying to come 
  8188. up with a policy for its use on our dedicated cluster of 32 IBM RS6000s.  
  8189. Our users will submit a variety of jobs to this test-bed environment,
  8190. including test/debug runs, benchmark runs, and production jobs which 
  8191. could run for a full month or more.
  8192.  
  8193. I was wondering what other sites are using DQS, what your experience
  8194. has been so far, and what kind of queue configuration/policy you are
  8195. using.  Also, in what kind of environment are you running DQS?  (a dedicated
  8196. cluster, or a loose cluster of individually-owned workstations?)
  8197.  
  8198.  
  8199. Angela Quealy
  8200. quealy@lerc.nasa.gov
  8201.  
  8202.  
  8203. -- 
  8204. ***********************************************************************
  8205. *  Angela Quealy                        quealy@lerc.nasa.gov          *
  8206. *  Sverdrup Technology, Inc.            (216) 977-1297                *
  8207. *  NASA Lewis Research Center Group                                   *
  8208. ***********************************************************************
  8209.  
  8210. Approved: parallel@hubcap.clemson.edu
  8211. Follow-up: comp.parallel
  8212. Path: bounce-back
  8213. Newsgroups: comp.parallel
  8214. From: cosc19ub@rosie.uh.edu (Li, Sam)
  8215. Subject: topological properties for different internetworking topologies
  8216. Organization: University of Houston
  8217.  
  8218. Hello netters,
  8219.  
  8220.   I am doing a survey report for comparing topological properties for
  8221.   various internetworking topologies. Any pointers or references concerning
  8222.   this will be appreciated.
  8223.  
  8224. Sam Li
  8225. cosc19ub@jetson.uh.edu
  8226.  
  8227.  
  8228. Approved: parallel@hubcap.clemson.edu
  8229. Follow-up: comp.parallel
  8230. Path: bounce-back
  8231. Newsgroups: comp.parallel,comp.sys.super
  8232. From hecht@oregon.cray.com Thu Oct 14 15:14:13 1993
  8233. From: hecht@oregon.cray.com
  8234. Subject: Delivering Parallel Performance
  8235.  
  8236. It seems that people talking about parallel performance often confuse/hide
  8237. the important low details that provide performance. Performance on parallel
  8238. programs depends on several key factors regardless of shared memory or
  8239. distributed memory implementation.  These factors are:
  8240.  
  8241.   1) Memory bandwidth
  8242.      a) Memory Latency
  8243.      b) Memory Bandwidth/Communication Bandwidth
  8244.   2) Parallel Coordination
  8245.      a) Updates to Global data
  8246.      b) Barrier synchronization
  8247.   3) Program Implementation
  8248.      a) Compute Intensity (ratio of ops/word)
  8249.      b) Amount of Parallel synchronization
  8250.  
  8251. Looking at memory latency we find shared memory latency 10 to 10,000 times
  8252. LESS to non-local data than distributed or cluster resources.  This
  8253. overhead factor,  combined with the easier shared memory programming model,
  8254. allows one to achieve greater relative performance.  Among commercial shared
  8255. memory systems the Cray APP is only superseded in this measure by the Cray
  8256. C90.
  8257.  
  8258. SHARED MEMORY LATENCY
  8259. =====================
  8260.    Machine          CPUS   CPU type       Year   Measured Latency
  8261.    ---------------  ----   -----------    ----   ----------------
  8262.    CRAY 1             1    proprietary    1976    188 nanoseconds
  8263.    VAX 11/780         1    proprietary    1978   1200 nanoseconds
  8264.    Cyber 205          1    proprietary    1981   1200 nanoseconds
  8265.    FPS-164            1    proprietary    1981    543 nanoseconds
  8266.    CRAY X-MP          2    proprietary    1982    171 nanoseconds
  8267.    FPS-264            1    proprietary    1984    159 nanoseconds
  8268.    Convex 210         1    proprietary    1987    440 nanoseconds
  8269.    Convex 240         4    proprietary    198?    440 nanoseconds
  8270.    CRAY Y-MP          8    proprietary    1988    150 nanoseconds
  8271.    CRAY S-MP          8    SPARC          1989    900 nanoseconds
  8272.    CRAY Y-MP/C90     16    proprietary    1991    100 nanoseconds
  8273.    CRAY APP          84    Intel i860     1991    150 nanoseconds
  8274.    SGI Challenge     18    Mips R4000     1993    853 nanoseconds
  8275.  
  8276. Cray APPs can and are cluster together by the medium of HIPPI.  Such a
  8277. cluster is presented for comparison with other diverse distributed memory
  8278. systems.
  8279.  
  8280.  
  8281. Distributed Memory/Cluster Memory
  8282. =================================
  8283.  
  8284.                        MEASURED Perf   Peak Perf
  8285.                        =============   ===========
  8286. Machine                 BW/PE   Lat    BW/PE  Lat   Source
  8287.                  cpus   MB/s   usec    MB/s  usec
  8288. ---------------- ----  ------ ------ ------ ------ -------------------
  8289. KSR 32pe           32    19      7                 HSpeed Computing Conf
  8290. CRAY APP-cluster 1008    92      9     100   0.2   Compcon paper '93
  8291. Meiko CS-2          ?    44     25     10          OSU RFP58030026 pub. info
  8292. KSR 1088pe       1008     5     25                 HSpeed Computing Conf
  8293. Intel Delta       240     7     45     30    0.15  joel@SSD.intel.com '93
  8294. RS/6000 IBM V-7     ?     5    140                 express Newsletter '93
  8295. Convex HP/Meta-1    ?    12    150                 cicci@hpcnnn.cerh.ch '93
  8296. Intel XP/S          ?    14    159                 OSU RFP58030026 pub. info
  8297. nCube/2             ?     2    154                 ruehl@iis.ethz.ch '93
  8298. IBM SP1 8-64       64     4    220     40    0.5   elam@ibm.com '93
  8299. RS/6000 bit-3       ?    10    240                 express Newsletter '93
  8300. RS/6000 ethernet    ?    .1   3500                 express Newsletter '93
  8301.  
  8302.   Definitions
  8303.   -----------
  8304.    us   - micro seconds (10^-6 sec)
  8305.    BW   - Bandwidth (measured in MBytes/sec)
  8306.    MB/s - MegaBytes/sec
  8307.  
  8308. This memory/communication latencies are the bottleneck on the overheads
  8309. associated with parallelism (barriers, critical sections, shared updates,
  8310. etc.)  And this directly affects performance on real algorithms and the
  8311. speedups that can be obtained.
  8312.  
  8313.  
  8314. ===========================================================================
  8315. Pat Hecht
  8316. Cray Research Superservers, Inc.           919-544-6267
  8317. hecht@cray.com
  8318. ===========================================================================
  8319.  
  8320. Other information
  8321. -----------------------------------------------------------------------
  8322. * HP Meta-1 (7100 chip, FDDI connection),  11.5 MB/s  on packets of at
  8323.   least 1kb.
  8324. * CRAY APP (i860 based, each CRAY APP has 84 PE, up to 12 systems in a
  8325.   cluster, for up to 1008 processors)
  8326. * RS/6000 IBM v-7 switch
  8327. * Hspeed Computing Conf = The Conference on High Speed Computing 3/29/93
  8328. * OSU RFP58030026 = part of an RFP for a computer system, by Oregon Law this
  8329.   info is part of the public record
  8330.  
  8331.  
  8332. APP Background (for those who don't know, ignore if you know)
  8333. -------------------------------------------------------------
  8334. Up to 84 processors (i860) per APP module
  8335. flat shared memory (equal access) via crossbar technology
  8336. ANSI HIPPI ports for clustering or networking and VME for I/O subsystem
  8337. low parallel overheads in a FORTRAN or C programming environment
  8338. Peaks Rates (6 Gflops 32-bit, 3 Gflops 64-bit)
  8339. (it really sustains Gflops on lots of stuff - FFTs, Seismic, radar, image
  8340. processing, solvers, etc.)
  8341.  
  8342.  
  8343. Approved: parallel@hubcap.clemson.edu
  8344. Follow-up: comp.parallel
  8345. Path: bounce-back
  8346. Newsgroups: comp.parallel
  8347. From: cwpjr@dcache.uucp (Clyde Philips)
  8348. Subject: Re: Massive Parallel Processors
  8349. References: <1993Oct8.183349.26884@hubcap.clemson.edu>
  8350. Organization: data-CACHE Corporation, Boise, Idaho
  8351.  
  8352. We here at Data-CACHE sell massively parallel db engines
  8353. primarily to offload mainframe db's for daily Decision Support.
  8354.  
  8355. Cheers,
  8356. Clyde
  8357.  
  8358.  
  8359. Approved: parallel@hubcap.clemson.edu
  8360. Follow-up: comp.parallel
  8361. Path: bounce-back
  8362. Newsgroups: comp.parallel
  8363. From: kasyapa balemarthy <kbalemar@chopin.helios.nd.edu>
  8364. Subject: Information wanted on Warp and iWarp
  8365. Reply-To: kasyapa balemarthy <kbalemar@chopin.helios.nd.edu>
  8366. Organization: Univ. of Notre Dame
  8367. References:  <93-10-031@comp.compilers>
  8368.  
  8369. Hi netters,
  8370.  
  8371.     I want some information on the Warp/iWarp processor array developed
  8372. by Carnegie-Mellon Univ & Intel. Can somebody post addresses of ftp sites
  8373. or other electronic sources where I can find info about it?
  8374.     Thanks in advance,
  8375.                 Kasyapa
  8376. -- 
  8377. Kasyapa Balemarthy
  8378. kbalemar@chopin.helios.nd.edu
  8379. University of Notre Dame
  8380.  
  8381. Approved: parallel@hubcap.clemson.edu
  8382. Follow-up: comp.parallel
  8383. Path: bounce-back
  8384. Newsgroups: comp.parallel
  8385. From: leclerc@cis.ohio-state.edu (Anthony Leclerc)
  8386. Subject: Any good simulators
  8387. Organization: The Ohio State University Dept. of Computer and Info. Science
  8388.  
  8389. [Check parlib]
  8390.  
  8391.  
  8392. I'm teaching an "Architecture of Advanced Computer Systems" course in
  8393. the
  8394. Spring semester.  Does anyone know of good simulators which are
  8395. publically
  8396. avaiable?
  8397.  
  8398. Sincerely...Tony Leclerc
  8399.  
  8400. Approved: parallel@hubcap.clemson.edu
  8401. Follow-up: comp.parallel
  8402. Path: bounce-back
  8403. From: elias@TC.Cornell.EDU (Doug Elias)
  8404. Newsgroups: comp.sys.super,comp.arch,comp.parallel.pvm,comp.parallel
  8405. Subject: Parallel Programming Environment: Update#2
  8406. Organization: Software and Consulting Support Group, Cornell Theory Center,
  8407.     C.U.
  8408.  
  8409. The PPE survey, available via anonymous-ftp to theory.tc.cornell.edu
  8410. as /pub/PPE_Survey, has had a couple of lines added asking for the
  8411. total amount of time required to complete the survey (the average is
  8412. now ~50 minutes), and for a self-rating of parallelism-expertise.  Any
  8413. other suggestions as to additions/changes are very welcome.  "Vendors"
  8414. have been noticably absent from the respondents, but shouldn't feel
  8415. unwelcome: you folks, as part of your work, necessarily port or help
  8416. port applications to your products, and this makes you "developers",
  8417. as far as i'm concerned.  That does still exclude pure-marketeers and
  8418. sales-droids, though...(not too) sorry.
  8419.  
  8420. i've received quite a few more requests for the survey results: i'll
  8421. be posting whatever i've got sometime in December, after having
  8422. presented it at both SC'93 and CW'93.  
  8423.  
  8424. There have also been quite a few expressions of sympathy for both the
  8425. amount of work involved and for the likely lack-of-response from the
  8426. bulk of our Club...i appreciate the former, and bow to the latter --
  8427. boy, talk about "pulling teeth", getting folks "in the know" to share
  8428. their insights is definitely a primo job -- for a masochist!  C'mon,
  8429. guys...it doesn't take that much time out of your week, and i've got
  8430. fistfuls of messages indicating how many people out there would really
  8431. appreciate your opinions!
  8432.  
  8433. Now for some flamebait:
  8434.  
  8435. One of the responses i got, from a gov't lab employee, had some things
  8436. to say that i felt might be of interest, so i got permission to
  8437. include it, as long as it wasn't signed:
  8438.  
  8439.  
  8440. >I thought you should be aware that we have more than 50 people here in
  8441. >my lab developing parallel applications, and I don't think that any of
  8442. >the methods that they are using meet the requirements for your survey,
  8443. >even after relaxing them.  This is because all development is being
  8444. >done for Intel Paragon, Intel iPSC/860, nCUBE-2, and shared memory
  8445. >Crays, all using vendor-specific syntax.  For message passing codes,
  8446. >it is generally an easy task to change from one flavor to another
  8447. >(provided you don't care about performance).  It is amusing that the
  8448. >things you mention (Express, ISIS, Network-Linda, p4, PVM, etc) are
  8449. >either things I never heard of, not available on our machines, would
  8450. >just offer an alternative to the vendor syntax, or else pitifully
  8451. >inadequate for the architecture.  It makes me wonder what useful
  8452. >information you will get out of your survey, because I feel you may
  8453. >miss a very large (and perhaps the largest) segment of the MP user
  8454. >community - those looking for performance.
  8455.  
  8456. ...to which i responded, in part:
  8457.  
  8458. >...i just wish that we all of us had the luxury
  8459. >of being able to essentially ignore all issues except "raw performance",
  8460. >but your earlier comments now having me wondering just how many of us
  8461. >actually ARE in that boat -- you seem to feel that it will be a
  8462. >sizable portion, if not a majority.  It would make sense that those of
  8463. >us in the other boat(s) would not really have much contact with "you",
  8464. >as our sets of defining concerns would be so minimally overlapping.
  8465.  
  8466. ...and received back the following:
  8467.  
  8468. >I guess I misspoke.  We don't ignore all issues except raw performance.
  8469. >Everybody assigns weights to the different factors such as 
  8470. >
  8471. >- performance
  8472. >- portability
  8473. >- general ease of use
  8474. >- availability of tools (performance monitoring, debugging, etc)
  8475. >- familiarity
  8476. >- etc...?
  8477. >
  8478. >We have BIG weights on performance and portability, which has led us
  8479. >to favor message passing C or Fortran for distributed memory
  8480. >environments.   There are a variety of projects about other paradigms
  8481. >going on that we keep some minimal knowledge of, such as Split-C, HPF
  8482. >(soon to be renamed LPF), multi-threaded machines, and others.  When
  8483. >they become reality as products, maybe some people will switch.
  8484. >
  8485. >The only reason to go to more processors is
  8486. >1.  doing a computation you could not do otherwise in a finite amount of 
  8487. >    time (i.e., bigger problems).
  8488. >2.  doing the same problems faster.
  8489. >
  8490. >If Parallel computing does not meet one of these goals, then it is 
  8491. >nothing more than an academic exercise (which I occasionally do too!).
  8492. >There are numerous examples of codes that people tried to parallelize
  8493. >only to discover (even on an MP machine) that communication limited the
  8494. >performance gains.  Our Paragon can send data at 40 microsecond latency
  8495. >and 200 megabyte bandwidth (including software overhead), but even this 
  8496. >is not good enough for some things.  It will be a long time before LANS 
  8497. >or WANS can challenge that.
  8498. >
  8499. >I would like to see more cooperation between the distributed computing
  8500. >world and the MP world, but so far they have not had too much success.
  8501. >The only overlap that I have seen so far has been some minimal support
  8502. >for PVM on MP machines, but having looked at the code for PVM, you might
  8503. >as well throw it away as a first step in porting to MP machines.  That
  8504. >leaves only the syntax and semantics, which are also questionable in
  8505. >light of the MPI effort.
  8506. >
  8507. >Heterogeneous computing is something we care about occasionally, partly
  8508. >because you want to use the right tool for the right job.  For example
  8509. >we routinely send data from an MP machine to a large SGI for rendering
  8510. >right now, but are considering pushing the rendering back to the MP 
  8511. >machine because the SGI can't keep up with the flow of data.  Someday
  8512. >maybe they'll migrate back.
  8513.  
  8514. i include these fragments in order to be sure the context is complete,
  8515. please forgive the length.  These comments leave me with the following
  8516. questions:
  8517.  
  8518. 1) How prevalent is the attitude that the environments i mentioned as
  8519.    examples of available PPEs (Express, ISIS, Network-Linda, p4, PVM,
  8520.    etc) are either "just alternatives to the vendor syntax" (i.e.,
  8521.    offer nothing significant over-and-above what is "natively"
  8522.    available), and/or "are pitifully inadequate for the architecture"?  
  8523.  
  8524. 2) How much agreement is there with the identification of "performance" 
  8525.    as the primary concern?  More-to-the-point, how much MORE
  8526.    performance would you require in order to offset how much MORE
  8527.    difficulty-of-use?  Or lack-of-portability?
  8528.  
  8529. 3) If "ease-of-use" is not maximized, how hard will it be to gain more
  8530.    of a foothold with the "dusty-deck", "just give me more Crays" crowd?
  8531.  
  8532. 4) i get a very strong sense of "if it can't do it now, forget it!"
  8533.    ... on the other hand, PPEs have shown, in my opinion, large
  8534.    increases in performance (computational and communication) over the
  8535.    last 3-5 years, and, with enough interest and pushing, will
  8536.    continue to make significant advances.  The potential, to me, is
  8537.    sufficient to warrant continued involvement...but is this a very
  8538.    common attitude?  Or are there distinct groups that collectively
  8539.    feel one way or the other, and, if so, why?
  8540.  
  8541. 5) Is something like PVM really such a bad fit to an MP like the
  8542.    Paragon?  If so, why?  i'd guess "unnecessary distributed
  8543.    overhead not required by an MP"...
  8544.  
  8545. 6) How important is the prospect of "heterogeneous computing", and how
  8546.    much effort should be put into preparing applications for it NOW,
  8547.    regardless of the relative inefficiency of the current tools?
  8548.  
  8549. 7) How likely is it that the MPI standard will result in "native"
  8550.    implementations of MPI, rather than interfaces to it from PPEs like
  8551.    PVM, p4, etc.?  Does MPI sound the deathknell for the current crop
  8552.    of non-native PPEs?
  8553.  
  8554.  
  8555. Thanks for your attention, and, please, download the survey and spend
  8556. some time sharing your opinions with the rest of us.
  8557.  
  8558. doug
  8559. --
  8560. #  ____    |Internet:   elias@tc.cornell.edu
  8561. #dr _|_)oug|USmail:     Sci.Comp.Support/Cornell Theory Center
  8562. #  (_|     |            737 TheoryCtrBldg/C.U./Ithaca/N.Y./14853-3801
  8563. #  (_|__   |MaBelle:    607-254-8686   Fax: 607-254-8888
  8564.  
  8565. Approved: parallel@hubcap.clemson.edu
  8566. Follow-up: comp.parallel
  8567. Path: bounce-back
  8568. Newsgroups: comp.parallel
  8569. From: stratton@dcs.warwick.ac.uk (Andrew Stratton)
  8570. Subject: `Twelve ways to fool...' reference and a short version.
  8571. Message-ID: <1993Oct15.133237.1096@dcs.warwick.ac.uk>
  8572. Sender: news@dcs.warwick.ac.uk (Network News)
  8573. Nntp-Posting-Host: box
  8574. Organization: Department of Computer Science, Warwick University, England
  8575. Date: Fri, 15 Oct 1993 13:32:37 GMT
  8576.  
  8577. I received a few responses from my request.
  8578.  
  8579. Firstly, a paper reference.
  8580. ---------------------------
  8581. >
  8582. >David H. Bailey
  8583. >Twelve ways to fool the masses when giving performance results on parallel
  8584. >computers
  8585. >Supercomputer 45, VIII-5, September 1991.
  8586.  
  8587. Now, a cut down text version of the paper from the Author from Jan 1992.
  8588. ------------------------------------------------------------------------
  8589.  
  8590. >Many of you have read my semi-humorous, semi-serious article "Twelve
  8591. >Ways to Fool the Masses When Giving Performance Results on Parallel
  8592. >Computers", which appeared in Supercomputing Review in August, also in
  8593. >Supercomputer (a European publication) in September.  I have attached
  8594. >a highly condensed version of this piece to the end of this note.
  8595. >Read one of the above references for the full text.
  8596. >
  8597. >1. Quote 32-bit performance results, not 64-bit results, or compare
  8598. >your 32-bit results with others' 64-bit results. **
  8599. >
  8600. >2. Present inner kernel performance figures as the performance of
  8601. >the entire application.
  8602. >
  8603. >3. Quietly employ assembly code and other low-level language
  8604. >constructs, or compare your assembly-coded results with others'
  8605. >Fortran or C implementations.
  8606. >
  8607. >4. Scale up the problem size with the number of processors, but don't
  8608. >clearly disclose this fact.
  8609. >
  8610. >5. Quote performance results linearly projected to a full system. **
  8611. >
  8612. >6. Compare your results against scalar, unoptimized code on Crays.
  8613. >
  8614. >7. Compare with an old code on an obsolete system.
  8615. >
  8616. >8. Base MFLOPS operation counts on the parallel implementation
  8617. >instead of on the best sequential implementation.
  8618. >
  8619. >9. Quote performance in terms of processor utilization, parallel
  8620. >speedups or MFLOPS per dollar (peak MFLOPS, not sustained). **
  8621. >
  8622. >10. Mutilate the algorithm used in the parallel implementation to
  8623. >match the architecture.  In other words, employ algorithms that are
  8624. >numerically inefficient, compared to the best known serial or vector
  8625. >algorithms for this application, in order to exhibit artificially high
  8626. >MFLOPS rates.
  8627. >
  8628. >11. Measure parallel run times on a dedicated system, but
  8629. >measure conventional run times in a busy environment.
  8630. >
  8631. >12. If all else fails, show pretty pictures and animated videos,
  8632. >and don't talk about performance.
  8633.  
  8634. Approved: parallel@hubcap.clemson.edu
  8635. Follow-up: comp.parallel
  8636. Path: bounce-back
  8637. Newsgroups: comp.parallel
  8638. From: C.D.Collier@ecs.soton.ac.uk (Christine Collier)
  8639. Subject: Applications of High Performance Computers dans La Belle France
  8640. Organization: Electronics and Computer Science, University of Southampton
  8641.  
  8642. Applications for High Performance Computers
  8643. Date:    November 2nd, 3rd, 4th and 5th, 1993
  8644. Applications for High Performance Computing
  8645.  
  8646. Registration Form
  8647.  
  8648. Title . . . . . . . . . . . . . . . . .
  8649.  
  8650. Surname  . . . . . . . . . . . . . . . . 
  8651.  
  8652. First Name  . . . . . . . . . . . . . . .
  8653.  
  8654. Institution  . . . . . . . . . . . . . . . . . . . . . . . . . . .
  8655.  
  8656.  
  8657. Address  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  8658.  
  8659.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  8660.  
  8661.  
  8662.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  8663.  
  8664.  
  8665.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
  8666.  
  8667.  
  8668. Tel:  . . . . . . . . . . . . . . . .. 
  8669.  
  8670. Fax:  . . . . . . . . . . . . . . . . . 
  8671.  
  8672.  
  8673. I enclose a cheque in the sum of  . . . . . . . . . . . . . . . . . .
  8674.  
  8675.  
  8676. Made Payable to a"University of Southampton".  Please forward cheque and registration to Telmat Informatique.
  8677.  
  8678.  
  8679.  
  8680.  
  8681.  
  8682. Venue:    Telmat Informatique
  8683.     Z.1. - 6 Rue de l'industrie, B P 12
  8684.     68360 Soultz Cedex
  8685.     France
  8686.     
  8687. Local Accommodation Arrangements contact:
  8688.  
  8689.     Rene Pathenay/Francoise Scheirrer
  8690.     Telmat Informatique
  8691.     Tel:  33 89 765110
  8692.     Fax:  33 89 742734
  8693.  
  8694.     Email:  pathenay@telmat.fr
  8695.  
  8696.  
  8697. Day 1    14.00 Start Introduction and Welcome        
  8698.     Session 1    Overview
  8699.             Introduction to Parallel Hardware
  8700.             Introduction to Parallel Software 
  8701.             Panel Discussion
  8702.  
  8703. Day 2    Start 09.30
  8704.     Session 2    Performance Characterization
  8705.             Low-level Benchmarks and Performance Critical Parameters
  8706.             CFD                           
  8707.     Session 3    Applications I
  8708.             Seismic Modelling
  8709.             Climate Modelling 
  8710.             Panel Discussion
  8711.  
  8712. Day 3    Start 9.30
  8713.     Session 4    HPC Standards
  8714.             HPF
  8715.             Message-Passing Interface
  8716.             
  8717.     Session 5    Parallel Matrix Kernels
  8718.             Structural Analysis
  8719.             Panel Discussion
  8720.  
  8721. Day 4    Start 09.00
  8722.     Session 6    The Parkbench Initiative
  8723.             Grand Challenge Applications
  8724.             Panel Discussion.
  8725.     Close 12.15
  8726.  
  8727.  
  8728.  
  8729. Soultz, France
  8730. Nov 2nd-5th, 1993
  8731.  
  8732. The aim of this course is to understand some aspects of current applications of
  8733. high performance computers.
  8734.  
  8735. There are three main objectives:
  8736. 1.  To give an overview of parallel hardware and software and to explore the
  8737.     role of performance critical parameters. Matrix kernels are also explored.
  8738.  
  8739. 2.  To give awareness of the tools that are likely to be important in the future.
  8740.     This includes HPF (High performance Fortran) and the message passing standards.
  8741.  
  8742. 3.  To put together applications in diverse areas of science and engineering. 
  8743.     There are speakers on seismic modelling, CFD, Structural Analysis, Molecular
  8744.     dynamics and climate modelling.
  8745.  
  8746.  
  8747. Cost  375 pounds sterling (Full Rate)
  8748.       275 pounds sterling for academic participants and members of ACT
  8749.       costs include lunch and refreshments throughout the day.
  8750.  
  8751.  
  8752. Minimum numbers  10
  8753.  
  8754. This course cannot be given unless there is a minimum of 10 participants. 
  8755. It will be necessary to receive the your registration no later than Monday 25th October, 1993.
  8756.  
  8757. Should the course not run, then all registration fees will be returned.
  8758.  
  8759.  
  8760.  
  8761. Approved: parallel@hubcap.clemson.edu
  8762. Follow-up: comp.parallel
  8763. Path: bounce-back
  8764. Newsgroups: comp.parallel
  8765. From: rehmann@cscs.ch (Rene M. Rehmann)
  8766. Subject: 2nd CFP: IFIP WG10.3 conference on programming environments, Switzerland
  8767. Reply-To: rehmann@cscs.ch
  8768. Organization: Centro Svizzero di Calcolo Scientifico (CSCS), Manno, Switzerland
  8769.  
  8770.              2nd Announcement
  8771.  
  8772.                      CALL FOR PAPERS
  8773.  
  8774.                 IFIP WG10.3
  8775.                WORKING CONFERENCE ON
  8776.             PROGRAMMING ENVIRONMENTS FOR 
  8777.            MASSIVELY PARALLEL DISTRIBUTED SYSTEMS
  8778.  
  8779.                   April 25 - 30, 1994
  8780.             Monte Verita, Ascona, Switzerland
  8781.         
  8782.  
  8783.  
  8784. Massively parallel systems with distributed resources will play a very
  8785. important role for the future of high performance computing.  One of
  8786. the current obstacles of these systems is their difficult programming.
  8787. The proposed conference will bring together active researchers who are
  8788. working on ways how to help programmers to exploit the performance
  8789. potential of massively parallel systems. The working conference will
  8790. consist of sessions for full and short papers, interleaved with poster
  8791. and demonstration sessions.
  8792.  
  8793. The Conference will be held April 25 - 30, 1994 at the Centro Stefano
  8794. Franscini, located in the hills above Ascona at Lago Maggiore, in the
  8795. southern part of Switzerland.  It is organized by the Swiss Scientific
  8796. Computing Center CSCS ETH Zurich. The conference is the forthcoming
  8797. event of the working group WG 10.3 of the International Federation for
  8798. Information Processing (IFIP) on Programming Environments for Parallel
  8799. Computing.  The conference succeeds the 1992 Edinburgh conference on
  8800. Programming Environments for Parallel Computing.
  8801.  
  8802.  
  8803. SUBMISSION OF PAPERS
  8804.  
  8805. Submission of papers is invited in the following areas:
  8806.  
  8807.     -- Programming models for parallel distributed computing
  8808.     -- Computational models for parallel distributed computing
  8809.     -- Program transformation tools
  8810.     -- Concepts and tools for the design of parallel distributed
  8811.          algorithms
  8812.     -- Reusability in parallel distributed programming
  8813.     -- Concepts and tools for debugging massively parallel
  8814.          systems (100+ processing nodes)
  8815.     -- Concepts and tools for performance monitoring of massively
  8816.          parallel systems (100+ processing nodes)
  8817.     -- Tools for application development on massively parallel
  8818.          systems
  8819.     -- Support for computational scientists: what do they really need ?
  8820.     -- Application libraries (e.g., BLAS, etc.) for parallel distributed
  8821.          systems: what do they really offer ?
  8822.     -- Problem solving environments for parallel distributed programming
  8823.  
  8824.  
  8825. Authors are invited to submit complete, original, papers reflecting
  8826. their current research results. All submitted papers will be refereed
  8827. for quality and originality. The program committee reserves the right
  8828. to accept a submission as a long, short, or poster presentation paper.
  8829.  
  8830. Manuscripts should be double spaced, should include an abstract, and
  8831. should be limited to 5000 words (20 double spaced pages); The contact
  8832. authors are requested to list e-mail addresses if available.  Fax or
  8833. electronic submissions will not be considered.
  8834.  
  8835. Please submit 5 copies of the complete paper to the following address:
  8836.  
  8837. PD Dr. Karsten M. Decker
  8838. IFIP 94
  8839. CSCS-ETH Zurich
  8840. Via Cantonale
  8841. CH-6928 Manno
  8842. Switzerland
  8843.  
  8844.  
  8845. IMPORTANT DATES
  8846.  
  8847. Deadline for submission:     December 1, 1993
  8848. Notification of acceptance:  February 1, 1994
  8849. Final versions:             March 1, 1994
  8850.  
  8851.  
  8852. CONFERENCE CHAIR
  8853.  
  8854. Karsten M. Decker
  8855. CSCS-ETH Zurich
  8856. Via Cantonale
  8857. CH-6928 Manno
  8858. Switzerland
  8859. phone:  +41 (91) 50 8233
  8860. fax:    +41 (91) 50 6711
  8861. e-mail: decker@serd.cscs.ch
  8862.  
  8863.  
  8864. ORGANIZATION COMMITTEE CHAIR
  8865.  
  8866. Rene M. Rehmann
  8867. CSCS-ETH Zurich
  8868. Via Cantonale
  8869. CH-6928 Manno
  8870. Switzerland
  8871. phone:  +41 (91) 50 8234
  8872. fax:    +41 (91) 50 6711
  8873. e-mail: rehmann@serd.cscs.ch
  8874.  
  8875.  
  8876. PROGRAM COMMITTEE
  8877.  
  8878. Francoise Andre, IRISA, France
  8879. Thomas Bemmerl, Intel Corporation, Germany
  8880. Arndt Bode, Technical University Muenchen, Germany
  8881. Helmar Burkhart, University Basel, Switzerland
  8882. Lyndon J. Clarke, University of Edinburgh, UK
  8883. Michel Cosnard, Ecole Normale Superieure de Lyon, France
  8884. Karsten M. Decker, CSCS-ETH Zurich, Switzerland
  8885. Thomas Fahringer, University of Vienna, Austria
  8886. Claude Girault, University P.et M. Curie Paris, France
  8887. Anthony J. G. Hey, University of Southhampton, UK
  8888. Roland N. Ibbett, University of Edinburgh, UK
  8889. Nobuhiko Koike, NEC Corporation, Japan
  8890. Peter B. Ladkin, University of Stirling, UK
  8891. Juerg Nievergelt, ETH Zurich, Switzerland
  8892. Edwin Paalvast, TNO-TPD, The Netherlands
  8893. Gerard Reijns, Delft University of Technology, The Netherlands
  8894. Eugen Schenfeld, NEC Research Institute, USA
  8895. Clemens-August Thole, GMD, Germany
  8896. Owen Thomas, Meiko, UK
  8897. Marco Vanneschi, University of Pisa, Italy
  8898. Francis Wray, Cambridge, UK
  8899.  
  8900.  
  8901. MONTE VERITA, ASCONA, SWITZERLAND
  8902.  
  8903. Centro Stefano Franscini, Monte Verita, located in the scenic hills
  8904. above Ascona, with a beautiful view on Lago Maggiore, has excellent
  8905. conference and housing facilities for about sixty participants.  Monte
  8906. Verita enjoys a sub-alpine/mediterranean climate with mean temperatures
  8907. between 15 and 18 C in April.
  8908.  
  8909. The closest airport to Centro Stefano Franscini is Lugano-Agno which is
  8910. connected to Zurich, Geneva and Basle and many other cities in Europe
  8911. by air. Centro Stefano Franscini can also be reached conveniently by
  8912. train from any of the three major airports in Switzerland to Locarno by
  8913. a few hours scenic trans-alpine train ride. It can also be reached from
  8914. Milano in less than three hours.
  8915.  
  8916. For more information, send email to ifip94@cscs.ch
  8917. For a PostScript-version of the CFP, anon-ftp to:
  8918.     pobox.cscs.ch:/pub/SeRD/IFIP94/CALL_FOR_PAPERS.ps
  8919.  
  8920. Karsten M. Decker, Rene M. Rehmann
  8921.  
  8922. ---
  8923. Rene Rehmann                                    phone:   +41 91 50 82 34
  8924. Section for Research and Development (SeRD)     fax  :   +41 91 50 67 11
  8925. Swiss Scientific Computing Center CSCS          email:   rehmann@cscs.ch
  8926. Via Cantonale, CH-6928 Manno, Switzerland
  8927.  
  8928.  
  8929.  
  8930. Approved: parallel@hubcap.clemson.edu
  8931. Follow-up: comp.parallel
  8932. Path: bounce-back
  8933. Newsgroups: comp.parallel,comp.parallel.pvm
  8934. From: levy@ellc6.epfl.ch ()
  8935. Subject: Information about PVM
  8936. Organization: Ecole Polytechnique Federale de Lausanne
  8937.  
  8938. Hello,
  8939.  
  8940. I'm interested to find out if in the PVM package there is a possibility
  8941. to do multicast operations.
  8942. If the answer is positive, i'll like to know how this multicast groups
  8943. are constructed and mani-
  8944. pulated (joining and quiting.)
  8945.  
  8946.  
  8947. Thanks and best regards.
  8948.  
  8949. Juan Pablo
  8950.  
  8951. Approved: parallel@hubcap.clemson.edu
  8952. Follow-up: comp.parallel
  8953. Path: bounce-back
  8954. Newsgroups: comp.parallel
  8955. From: broegb@jasper.CS.ORST.EDU (Bob Broeg)
  8956. Subject: Topologies of Parallel Machines
  8957. Organization: Computer Science Department, Oregon State University
  8958.  
  8959. Some months ago, an article was posted to this group (I believe) which
  8960. listed several parallel machines, their underlying topology, and
  8961. status of the manufacturer (still in business or not).  Unfortunately,
  8962. I did not save the article and now wish I had.
  8963.  
  8964. Did anyone save this article?  And, if you did, would you kindly send
  8965. it to me?  
  8966.  
  8967. Thanks
  8968.  
  8969. Bob 
  8970.  
  8971. ------------------------------------------------------------------
  8972. Bob Broeg                         |
  8973. Department of Computer Science    |   Internet: broegb@cs.orst.edu
  8974. Oregon State University           |   Phone   : 503-737-4052
  8975. Corvallis, OR  97331-3902         |   Fax     : 503-737-3014
  8976.  
  8977. Approved: parallel@hubcap.clemson.edu
  8978. Follow-up: comp.parallel
  8979. Path: bounce-back
  8980. Newsgroups: comp.parallel
  8981. From: urban@CS.ColoState.EDU (david urban)
  8982. Subject: Parallel Terrain Rendering
  8983. Organization: Colorado State University, Computer Science Department
  8984.  
  8985.  I am doing a term/research paper for a parallel programming class on
  8986.  parallel terrain rendering. I have one reference to a paper by Dr.
  8987.  Ken Musgrave. The other references I had got lost when my mail file
  8988.  was deleted by mistake. I would appreciate any help in locating other
  8989.  technical reports or reference material on this subject.
  8990.  
  8991.  Thanks in advance for all the help.
  8992.  
  8993.  David S. Urban
  8994. -- 
  8995. David S. Urban   email : urban@cs.colostate.edu
  8996. To be the person, you must know the person. To know the person, you must
  8997. understand the person. To understand the person, you must listen. To listen,
  8998. you must open your mind and put aside all preconceived ideas and notions.
  8999.  
  9000. Approved: parallel@hubcap.clemson.edu
  9001. Follow-up: comp.parallel
  9002. Path: bounce-back
  9003. Newsgroups: comp.parallel
  9004. From: ravin@eecg.toronto.edu (Govindan Ravindran)
  9005. Subject: Multiprocessor Simulator
  9006.  
  9007. Hi,
  9008.  
  9009.  Could someone let me know the ftp sites where I can get execution 
  9010.  driven or trace driven shared memory multiprocessor simulator for
  9011.  research use? 
  9012.  
  9013.  Thanks.
  9014.  
  9015.  -Ravindran,G.
  9016.   (ravin@eecg.toronto.edu)
  9017.  
  9018.  
  9019.  
  9020. Approved: parallel@hubcap.clemson.edu
  9021. Follow-up: comp.parallel
  9022. Path: bounce-back
  9023. Newsgroups: comp.parallel
  9024. From: muchen li <mli@babbage.cse.nd.edu>
  9025. Subject: Help, Intel Paragon Documents 
  9026. Reply-To: muchen li <mli@babbage.cse.nd.edu>
  9027. Organization: University of Notre Dame, Notre Dame
  9028.  
  9029. Dear Netter: 
  9030.  
  9031. I would appreciate if anyone can give some hints on where to find some documents on Intel Paragon Architecture, 
  9032.  
  9033. Especially on how Paragon support distributed shared memory paradigm as they proclaimed even it is a message-passing type multicomputers. 
  9034.  
  9035.  
  9036. Thanks.
  9037.  
  9038. -- 
  9039. *-------------------------------------------------------------------*
  9040. |  Michael Muchen Li                          Office (219) 631-8854 |
  9041. |  Department of Computer Sci. & Engr.        Home   (219) 232-6713 |
  9042. |  University of Notre Dame                                         |
  9043. |  Notre Dame, IN 46556           Email to:  mli@bach.helios.nd.edu|
  9044. *-------------------------------------------------------------------*                                              
  9045.  
  9046.  
  9047. Approved: parallel@hubcap.clemson.edu
  9048. Follow-up: comp.parallel
  9049. Path: bounce-back
  9050. Newsgroups: comp.parallel
  9051. From: schooler@apollo.hp.com (Richard Schooler)
  9052. Subject: Parallel Tools Survey
  9053. Organization: HP/Apollo Massachusetts Language Lab
  9054.  
  9055.   I haven't gotten anything in a while, so here goes.  My original
  9056. question was:
  9057.  
  9058. What tools exists for industrial (non-research) parallel programming?
  9059.  
  9060. In more detail, if you have experience trying to develop real
  9061. applications on parallel architectures (shared-memory multiprocessors,
  9062. massively-parallel machines, workstation clusters, etc.), what is your
  9063. view on the level of support for such activities?  What tools do the
  9064. hardware vendors supply?  Are there third-party solutions?
  9065. Public-domain software?  What are the most useful tools?  Any details
  9066. on why you found particular tools good or bad would be very helpful.
  9067.  
  9068. Here the (non-commercial) responses:
  9069.  
  9070. ==================================================
  9071.  
  9072. I have implemented an eigenvalue solver on 2 different platforms:
  9073. An nCUBE-2 and a cluster of SUN4 workstations.
  9074. On the nCUBE-2 I used their "native" environment. They have some additional
  9075. software from Express for implementing certain communication primitives
  9076. very efficiently and for performance tunning. They have a debugger that I
  9077. was not able to figure out.
  9078.  
  9079. On the cluster I used PVM (versions 2.4 and 3.1). Debugging is a nightmare.
  9080. There are no tools for performance tunning. I haven't tried Xab yet. 
  9081. >From what I have seen in the literature it is a good debugger.
  9082.  
  9083. For performance tunning, I have been creating my own trace files in
  9084. PICL format. At the end of the program those trace files (kept in memory
  9085. to avoid disturbances) are dumped into a file that can be observed
  9086. with Paragraph. It helped enormously. Paragraph is an excellent tool.
  9087.  
  9088. PVM, PICL and Paragraph are public domain tools.
  9089.  
  9090. There is a committee (MPIF) that is drafting a standard for message
  9091. passing systems. Such a standard will be extremely useful.
  9092.  
  9093. Your partners at CONVEX are very active in PVM customization.
  9094.  
  9095. ==================================================
  9096.  
  9097. What tools are there for programming multiprocessors?  Outside of
  9098. tools specific to certain scientific applications or database
  9099. applications my experience is that there is C-threads and maybe
  9100. C++/threads if you are lucky.
  9101.  
  9102. If you are really lucky, the C compiler has no bugs, and on miraculous
  9103. systems the operating system is pretty stable too.
  9104.  
  9105. Here, when I say C, I mean C and probably Fortran too.
  9106.  
  9107. My best experience has been on the the Cray machines.  Stable OS,
  9108. stable compilers, good perf. analysis tools.  Unfortunately, these
  9109. machines are hardly ever available in multiprocessor mode.  Mostly
  9110. they are in "partitioned to run lots of batch jobs in parallel"-mode.
  9111. UniCOS is kind of wierd, and lack of VM makes interactive use awkward.
  9112. But overall, a very nice system.
  9113.  
  9114. Next in line is the KSR-1.  Less stable compilers, less stable OS, and
  9115. lousy processor performance.  But, not bad overall.  No tools other
  9116. than C-threads and some loop parallelization stuff that probably
  9117. doesn't work well (never tried it).  They have some profiling stuff
  9118. and very good support for standard UNIX tools, since their OS is
  9119. standard UNIX.
  9120.  
  9121. The TMC machines are pitifully bad.  They are in a constant revolving
  9122. beta-release.  Nothing ever works and the new release of the OS or compilers
  9123. always breaks all existing code.
  9124.  
  9125. Don't know about Intel machines, but I can't imagine that they'd be
  9126. much better than TMC.
  9127.  
  9128. The Maspar is a nice environment on a bad architecture.  The
  9129. processors are just too small to be useful on big problems.  They have
  9130. a nice parallel C, good profiling and debugging tools and a pretty
  9131. stable OS environment.
  9132.  
  9133. I don't know what's around for MP workstations.  I think that's where
  9134. the interesting work is to be done, because the machines have a stable
  9135. base to work from...good tools should be coming along.
  9136.  
  9137. ==================================================
  9138.  
  9139. A good starting point might be the survey report by Louis Turcotte:
  9140.  
  9141. /parallel/reports/misc/soft-env-net-report.tar.Z
  9142.     Report: "A Survey of Software Environments for Exploiting Networked
  9143.     Computing Resources" by Louis Turcotte <turcottte@wes.army.mil>
  9144.     covering over 60 distributed and other networked software environments
  9145.     (150 pages). Announcement of report contains author contact details.
  9146.  
  9147. Available via anonymous ftp from unix.hensa.ac.uk
  9148.  
  9149. ==================================================
  9150.  
  9151.     Greetings! Sometime back I came to know about a tool MENTAT which
  9152. they call it Object Oriented Programming tool for Parallel
  9153. Programming. Also I found out some people are using it in the
  9154. industry to develop applications in FEA in a workstation cluster.
  9155. MENTAT is a Public domain tool developed and available in Univ.
  9156. of Virginia. I never used it and don't know how good it is. But
  9157. if you want to know more, it is available in the following location
  9158. through anonymous ftp.
  9159.  
  9160.     uvacs.cs.virginia.edu      /pub/mentat  -> the software is here
  9161.  
  9162.                 /pub/techreports -> contains couple
  9163. of reports CS91-07, CS91-31 and 32 which will give you more details.
  9164.  
  9165.      There are not many tools to develop software in parallel computers.
  9166. I am a graduate student and I did lot of programmimg in CM -5 both using C* 
  9167. and CMMD message passing libraries. There is PRISM in CM-5 which helps in 
  9168. debugging and profiling.But I found it useful in C* and it is not good while 
  9169. using CMMD.But my feeling is there are no good tools to program in CM-5. Still
  9170. many of these tool developments are in the research project level as sometime
  9171. back I saw a project description in Univ. of Wisconsin for developing
  9172. tools for CM-5 and Intel Paragon. 
  9173.  
  9174. ==================================================
  9175.  
  9176.         -- Richard
  9177.         schooler@apollo.com
  9178.  
  9179. Approved: parallel@hubcap.clemson.edu
  9180. Follow-up: comp.parallel
  9181. Path: bounce-back
  9182. Newsgroups: comp.parallel
  9183. From: C.PETERSON@AppleLink.Apple.COM (Springer Verlag Publishers,PAS)
  9184. Subject: Visualization Book Release
  9185.  
  9186. FOR IMMEDIATE RELEASE
  9187.  
  9188. Contact:   TELOS, The Electronic Library of Science
  9189. (408) 249-9314
  9190.  
  9191. FIRST MULTIMEDIA BOOK ON SCIENTIFIC VISUALIZATION PUBLISHED BY TELOS
  9192.  
  9193. Santa Clara, California, October 15, 1993 - TELOS (The Electronic Library of
  9194. Science) announces the release of "Visualization of Natural Phenomena," the
  9195. first multimedia book/CD-ROM package to achieve a high level of technology and
  9196. information integration for the scientific community, by Robert S. Wolff and
  9197. Larry Yaeger of Apple Computer.
  9198.  
  9199. "Visualization of Natural Phenomena" is an integrated book/CD-ROM package which
  9200. allows users to interactively explore the techniques used in scientific
  9201. visualization. It is designed for a broad range of computer professionals,
  9202. scientists, researchers, teachers, students, and other interested readers.
  9203. Employing the image as the fundamental concept, the book covers a wide range of
  9204. subjects under the broad heading of scientific visualization, including: image
  9205. display and processing; image animation; video; visualization of multiparameter
  9206. data; terrain rendering; 3-D solid modeling, rendering and animation; and
  9207. visualization in film and TV. Practical hints on the use of commercial and
  9208. public domain software in producing scientific visualization are also provided,
  9209. as are discussions of the computation and production of the images used in the
  9210. text.
  9211.  
  9212. This book contains over 300 full-color images and black and white
  9213. illustrations. Technical Notes contain additional technical and algorithmic
  9214. discussions of the material. There is also a Special Appendix describing in
  9215. detail how the book and CD-ROM were produced, and a Glossary of terms is
  9216. provided in the book and on the disc.
  9217.  
  9218. Priced at $59.95, Visualization of Natural Phenomena (ISBN 0-387-97809-7) comes
  9219. with a CD-ROM containing more than 100 QuickTime(tm) animations covering a wide
  9220. range of visualization applications, along with explanations of the various
  9221. phenomena depicted. The CD also contains public domain images, as well as
  9222. Mathematica(r), NCSA, Spyglass(r), and other third-party software to supply users
  9223. with a broad range of visualization examples. The CD-ROM is intended for use on
  9224. Apple Macintosh equipment, and is integrated with the book through the use of
  9225. an icon library for easy cross-referencing.
  9226.  
  9227. VNP is structured so users do not have to access the CD-ROM in order to take
  9228. advantage of the book's content. However, it is highly recommended that users
  9229. do refer to the book and disc in tandem when working through the materials in
  9230. order to fully benefit from the interactive learning experience this package
  9231. provides. The recommended system requirements are: Color Macintosh(r), System
  9232. 7.01 or 7.1, 8 MB RAM, 13" RGB monitor, 5 MB free hard disk space, CD-ROM
  9233. drive, QuickTime 1.5 extension (included on CD-ROM) needed to play movies.
  9234.  
  9235.  
  9236. ABOUT THE AUTHORS
  9237. Robert S. Wolff is the Project Leader of Advanced Applications in Apple
  9238. Computer's Advanced Technology Group, where, since 1988, he has specialized in
  9239. developing prototype environments for scientific computing. Before coming to
  9240. Apple, he was a planetary astrophysicist at NASA's Jet Propulsion Lab (JPL). He
  9241. has produced numerous visualizations and animations and has participated in
  9242. several courses and panels on visualization at SIGGRAPH. He is currently
  9243. Visualization Editor for Computers in Physics and is a Co-Investigator on the
  9244. Volcanology Team on NASA's Earth Observing Systems (EOS) Mission. Dr. Wolff has
  9245. a Ph.D. in astrophysics from Brandeis University.
  9246.  
  9247. Larry Yaeger's background includes computational fluid dynamics, computer
  9248. graphics imaging, and neural network research. He has carried out pioneering
  9249. simulations of fluid flows over the Space Shuttle and was one of the principal
  9250. architects of a computer graphics rendering software at Digital Productions.
  9251. Larry has contributed to the design and development of the software tools and
  9252. production techniques used for special effects in several films and
  9253. commercials. As a Principal Engineer in Apple's Vivarium Program, he built
  9254. neural network simulators and built a system for integrating Macintosh graphics
  9255. into routine film production for Star Trek: The Next Generation. Now as part of
  9256. the Adaptive Systems/Advanced Technology Group at Apple Computer, Inc. he is
  9257. extending his character recognition work to pen-based microprocessors and is
  9258. currently combining computer graphics, neural networks, and genetic algorithms
  9259. to study artificial life and artificial intelligence.
  9260.  
  9261.  
  9262. ABOUT TELOS
  9263. TELOS is an imprint of Springer-Verlag New York, with publishing facilities at
  9264. 3600 Pruneridge Avenue, Suite 200, Santa Clara, Calif. 95051. Its publishing
  9265. program encompasses the natural and physical sciences, computer science,
  9266. economics, mathematics, and engineering. TELOS strives to wed the traditional
  9267. print medium with the emerging electronic media to provide the reader with a
  9268. truly interactive multimedia information environment. All TELOS publications
  9269. delivered on paper come with an associated electronic component.
  9270.  
  9271. To order this product, please visit your local bookstore or contact
  9272. Springer-Verlag at (800) 777-4643 (in New Jersey, call (201) 348-4033). Fax
  9273. orders to (201) 348-4505. International customers should contact their nearest
  9274. Springer-Verlag office.
  9275.  
  9276. For information on bulk sales, please contact Mark Puma at (212) 460-1675.
  9277. For information on 30-day examination copies for course adoption, please call
  9278. (201) 348-4033 ext. 660. For book review copies, please contact TELOS directly
  9279. at (408) 249-9314.
  9280.  
  9281. -30-
  9282.  
  9283.  
  9284.  
  9285. Approved: parallel@hubcap.clemson.edu
  9286. Follow-up: comp.parallel
  9287. Path: bounce-back
  9288. Newsgroups: comp.parallel
  9289. From: kasyapa balemarthy <kbalemar@larson.helios.nd.edu>
  9290. Subject: Request for info on iWarp/Warp
  9291. Reply-To: kasyapa balemarthy <kbalemar@larson.helios.nd.edu>
  9292. Organization: Univ. of Notre Dame
  9293.  
  9294. Hi Netters,
  9295.     
  9296.  
  9297. I need addresses of ftp sites/electronic journals about the iWarp/Warp processor
  9298. array developed at Carnegie-Mellon University.
  9299.  
  9300. Thanks in advance,
  9301.  
  9302.         Kasyapa
  9303.  
  9304. Approved: parallel@hubcap.clemson.edu
  9305. Follow-up: comp.parallel
  9306. Path: bounce-back
  9307. Newsgroups: comp.parallel
  9308. From: cosc19ub@menudo.uh.edu (Sam S. Li)
  9309. Newsgroups: comp.parallel
  9310. Subject: topological properties for various internetworking topologies
  9311. Organization: University of Houston
  9312.  
  9313. Hello netters,
  9314.  
  9315.   I am writing a survey report for comparing topological properties for
  9316.   different internetworking topologies, e.g. star, shuffle, hypercube,
  9317.   etc.. Any pointers or references will be appreciated.
  9318.  
  9319. Sam S. Li
  9320. cosc19ub@menudo.uh.edu
  9321.  
  9322. Approved: parallel@hubcap.clemson.edu
  9323. Follow-up: comp.parallel
  9324. Path: bounce-back
  9325. Newsgroups: comp.parallel
  9326. Subject: Re: Parallel Fourier transforms
  9327. From: hcole@sagebrush.nrcabq.com (Howard R. Cole)
  9328. References: <1993Oct11.154829.27087@hubcap.clemson.edu>
  9329.  
  9330.  
  9331. I also am looking for an algorithm for a parallel 2D fourier
  9332. transform.  If anyone knows about such an algorithm, please
  9333. let me know.
  9334.  
  9335. Thanks.
  9336.  
  9337. - Howard Cole
  9338.  
  9339.   Nichols Research Corp.    |      hcole@tumbleweed.nrcabq.com
  9340.   2201 Buena Vista SE       |
  9341.   Suite 203                 |   "If we can't fix it -
  9342.   Albuquerque, NM  87106    |       it just aint' broke!"
  9343.  
  9344.  
  9345. Approved: parallel@hubcap.clemson.edu
  9346. Follow-up: comp.parallel
  9347. Path: bounce-back
  9348. Newsgroups: comp.parallel
  9349. From: manu@CS.UCLA.EDU (Maneesh Dhagat)
  9350. Subject: Parallel Implementations of SETL?
  9351. Organization: UCLA, Computer Science Department
  9352.  
  9353. Are there any parallel implementations of SETL?
  9354.  
  9355. I know that Paralation Lisp, CM Lisp, SQL, APL, etc.
  9356. come in a similar class of (collection-oriented)
  9357. languages, but I want to specifically know if
  9358. SETL has been implemented on parallel machines.
  9359.  
  9360. If you can email me any references/ftp sites,
  9361. it would be much appreciated.
  9362.  
  9363.                    --Maneesh Dhagat
  9364. -- 
  9365. ---------------------------------------------------
  9366. Maneesh Dhagat (manu@cs.ucla.edu)
  9367. University of California, Los Angeles, CA 90024
  9368. ---------------------------------------------------
  9369.  
  9370. Approved: parallel@hubcap.clemson.edu
  9371. Follow-up: comp.parallel
  9372. Path: bounce-back
  9373. From: gross@noether.ucsc.edu (Mike Gross)
  9374. Newsgroups: comp.parallel,sci.math.num-analysis
  9375. Subject: Re: Parallel Fourier transforms
  9376. Organization: University of California, Santa Cruz
  9377.  
  9378. In comp.parallel I wrote:
  9379.  
  9380. >I need to solve Poisson's equation on an i860 supercomputer with local
  9381. >memory only. I would like to use Fourier transform methods to solve
  9382. >the equation, but it is not obvious to me how to perform a global operation
  9383. >such as a Fourier integral (or FFT) efficiently on data that must be fragmented
  9384. >across several processors. In order to get the dynamic range I need in my
  9385. >simulation, I require a space-domain mesh that is several times the size of
  9386. >local memory.
  9387.  
  9388. >Does anyone out there know of any good references for this problem? Or better
  9389. >yet, are there any publicly available routines? My problems sounds like one
  9390. >that has been attacked many times by parallel numerical analysts. I hope this
  9391. >isn't a FAQ.
  9392.  
  9393. I may be in a position to answer my own question, with a little help from
  9394. Michel Beland (beland@cerca.umontreal.ca), who provided a name from memory.
  9395. I did a citation search on that name, and also on the title words "parallel"
  9396. and "fourier." What came up was the following two articles:
  9397.  
  9398. Ganagi & Neelakantan
  9399.     Implementation of the Fast Fourier Transform Algorithm on a Parallel
  9400. Processor
  9401.     Current Science, 61(2), 105-108.
  9402.  
  9403. Tong & Swarztrauber
  9404.    Ordered Fast Fourier Transforms on a Massively Parallel Hypercube
  9405. Multiprocessor.
  9406.    Journal of Parallel & Distributed Computing 12(1), 50-59.
  9407.  
  9408. Both articles are from 1991. There is also a more recent reference, which I
  9409. haven't been able to decipher, from the folks at IBM Watson:
  9410.  
  9411. Christidis & Pattnaik
  9412.    Parallel Algorithm for the Fast Fourier Transform.
  9413.    EWECF Conference 13(4), 533-538.
  9414.  
  9415. Mike Gross
  9416. Physics Board
  9417. Univ of California                          GO SLUGS!!!!!
  9418. Santa Cruz, CA 95064
  9419. gross@physics.ucsc.edu
  9420.  
  9421.  
  9422.  
  9423. Approved: parallel@hubcap.clemson.edu
  9424. Follow-up: comp.parallel
  9425. Path: bounce-back
  9426. Newsgroups: comp.parallel
  9427. From: rarubio@nmsu.edu (Rafael M. Rubio)
  9428. Subject: Intel iPSC Hypercube performance?
  9429. Date: 17 Oct 1993 06:28:36 GMT
  9430. Organization: New Mexico State University, Las Cruces, NM
  9431. Nntp-Posting-Host: dante.nmsu.edu
  9432.  
  9433.    We here at NMSU have recently come across 2 Intel 286 based iPSC
  9434. Hypercubes (config. d5) totaling 64 processors and would like to
  9435. know how the math performace of a set up like this compares to that
  9436. of a Sun 4/670.  Our ideal application would be ray tracing images.
  9437.  
  9438. Thanks for any and all info.
  9439. Rafael
  9440.  
  9441.  
  9442. Approved: parallel@hubcap.clemson.edu
  9443. Follow-up: comp.parallel
  9444. Path: bounce-back
  9445. Newsgroups: comp.parallel
  9446. From: David Kanecki <kanecki@cs.uwp.edu>
  9447. Subject: Simulation for Emergency Management CFP
  9448.  
  9449.         As chairperson of the Emergency Management Committee for The Socie-
  9450.    ty for Computer Simulation, I would like to ask for your help in inform-
  9451.    ing  others  about the Emergency Management Conference and to  submit  a 
  9452.    paper or abstract to the conference. Papers and abstracts can be submit-
  9453.    ted  until late December. To submit a paper or abstract, please sent  it 
  9454.    to:
  9455.    
  9456.         Simulation for Emergency Management
  9457.         c/o SMC '94
  9458.         P.O. Box 17900
  9459.         San Diego, CA 92177
  9460.         Phone: (619)-277-3888, Fax: (619)-277-3930
  9461.  
  9462.     Currently, we have received four papers from colleagues in the 
  9463.    industrial, government, and academic areas. Also, if you would like
  9464.    to volunteer, please contact me, kanecki@cs.uwp.edu, or SCS in San 
  9465.    Diego.
  9466.  
  9467.         Other  conferences that are being held during the 1994 SCS  Simula-
  9468.    tion Multiconference, SMC '94, April 11-15, 1994, Hyatt Regency Aventine 
  9469.    -  La  Jolla, San Diego, California are Simulators  International;  High 
  9470.    Performance Computing Symposium; Visualization, Validation, &  Verifica-
  9471.    tion  of Computer Simulations; Mission Earth; Military, Government,  and 
  9472.    Aerospace Simulation; and 27th Annual Simulation Symposium.
  9473.    
  9474.         To  show the diversity of topics and interest of Emergency  Manage-
  9475.    ment,  I have compiled a list of authors and titles of papers  from  the 
  9476.    1993 and 1992 conferences:
  9477.    
  9478.         1993 Conference
  9479.         1. "A Report Card on the Effectiveness of Emergency Management  and 
  9480.    Engineering", James D. Sullivan, CCP, CDP, CSP.
  9481.         2.  "A  New  Cooperative Program for the  Development  of  Advanced 
  9482.    Technology for Emergency Preparedness", Robert J. Crowley, P.E.
  9483.         3.  "Simulation in Training and Exercises for Emergency  Response", 
  9484.    Lois Clack McCoy.
  9485.         4. "Fatal Hazardous Materials and Accident Statistics", Theodore S. 
  9486.    Glickman, Dominic Golding, Karen S. Terry, Frederick W. Talcott.
  9487.         5.  "A Risk Analytic Approach to Contingency Planning using  Expert 
  9488.    Judgement in Simulated Scenarios", John R. Harrald, Thomas Mazzuchi.
  9489.         6. "Emergency Response and Operational Risk Management",  Giampiero 
  9490.    E.G. Beroggi, William A. Wallace.
  9491.         7.  "Damage  Analysis  of Water Distribution  Systems  using  GIS", 
  9492.    Matthew  J. Cassaro, Sridhar Kamojjala, N.R. Bhaskar, R.K. Ragade,  M.A. 
  9493.    Cassaro.
  9494.         8.  "Physical  Damage and Human Loss: Simulation  of  the  Economic 
  9495.    Impact  of Earthquake Mitigation Measures", Frederick  Krimgold,  Jayant 
  9496.    Khadilkar, Robert Kilcup.
  9497.         9.  "Utah Equip: A Comprehensive Earthquake Loss  Prediction  Model 
  9498.    for  the  Wasatch Fault", Robert Wilson, Christopher Rojahn,  Dr.  Roger 
  9499.    Scholl, Barbara Skiffington, Terry Cocozza.
  9500.         10.  "Geographic Information System (GIS) Application in  Emergency 
  9501.    Management", Donald E. Newsom, Ph.D., P.E., Jacques E. Mitrani.
  9502.         11. "Smart Spatial Information Systems and Disaster Management: GIS 
  9503.    in the Space Age", A.M.G. Jarman, Ph.D.
  9504.         12.  "An Evacuation Simulation for Underground Mining", Richard  L. 
  9505.    Unger, Audrey F. Glowacki, Robert R. Stein.
  9506.         13.  "Importance  of Rems in the Aftermath  of  Hurricane  Andrew", 
  9507.    Suleyman Tufekci, Sandesh J. Jagdev, Abdulatef Albirsairi.
  9508.  
  9509.  
  9510.  
  9511.  
  9512.  
  9513.  
  9514.         14. "Optimal Routing in State Dependent Evacuation Networks", David 
  9515.    L. Bakuli, J. MacGregor Smith.
  9516.         15.  "Evacuation Models and Objectives", Gunnar G. Lovas,  Jo  Wik-
  9517.    lund, K. Harrald Drager.
  9518.         16. "Xpent, Slope, Stability Expert System for Managing the  Risk", 
  9519.    R.M. Faure, Ph.D., D. Mascarelli, Ph.D.
  9520.         17.  "Mapping  of  Forest Units which have  a  Protective  Function 
  9521.    against  Natural  Hazards. An Application  of  Geographical  Information 
  9522.    Systems in France", Frederic Berger.
  9523.         18.  "Artificial Intelligence and Local Avalanche Forecasting:  The 
  9524.    System 'AVALOG' ", Robert Belognesi.
  9525.         19. "Simulations in Debris Flow", Fabrice Moutte.
  9526.         20. "Planning and Controlling of General Repair in a Nuclear  Power 
  9527.    Plant", Majdandzic N. and Dobrila Damjonovic-Zivic.
  9528.         21.  "Spatial Decision Support Systems for Emergency  Planning:  An 
  9529.    Operational  Research/  Geographical  Information  Systems  Approach  to 
  9530.    Evacuation  Planning",  F.  Nishakumari de Silva,  Michael  Pidd,  Roger 
  9531.    Eglese.
  9532.         22.  "Online  Expert  Systems for Monitoring  Nuclear  Power  Plant 
  9533.    Accidents", M. Parker, F. Niziolek, J. Brittin.
  9534.         23. "Nuclear Power Reactor Accident Monitoring", M. Parker, P.E.
  9535.         24. "An Expert System for Monitoring the Zion Nuclear Power Station 
  9536.    the DNS Early Warning Program", Joseph L. Brittin, Frank Niziolek.
  9537.         25. "Fire Spread Computer Simulation of Urban Conflagagrations", P. 
  9538.    Bryant, G.R. Doenges, W.B. Samuels, S.B. Martin, A.B. Willoughby.
  9539.         26.  "Practical  Applications  of Virtual  Reality  to  Firefighter 
  9540.    Training", Randall Egsegian, Ken Pittman, Ken Farmer, Rick Zobel.
  9541.         27.  "Difficulties in the Simulation of Wildfires", James H.  Brad-
  9542.    ley, A. Ben Clymer.
  9543.         28. " 'Snow and Computer' A Survey of Applications for Snow Hazards 
  9544.    Protection in France", Laurent Buisson, Gilles Borrel.
  9545.         29.  "Mem-brain,  Decision Support Integration-Platform  for  Major 
  9546.    Emergency Management (MEM)", Yaron Shavit.
  9547.         30.  "Architecture  of a Decision Support System  for  Forest  Fire 
  9548.    Prevention and Fighting", Jean-Luc Wybo, Erick Meunier.
  9549.         31.  "Optimizing  Comprehensive Emergency Mitigation  and  Response 
  9550.    through  the  use of Automation (Panel Discussion)", Lois  Clark  McCoy, 
  9551.    David McMillion.
  9552.         32. "Applying a Geographical Information System to Disaster  Epide-
  9553.    miologic  Research: Hurricane Andrew, Florida 1992", Josephine  Malilay, 
  9554.    Lynn Quenemoen.
  9555.         33.  "An Effective Method of Extracting a Localized  Storm  History 
  9556.    from a Database of Tracks", Eric C. Dutton, Ronald S. Reagan.
  9557.         34.  "Periodic Poisson Process for Hurricane  Disaster  Contingency 
  9558.    Planning", Ronald S. Reagan.
  9559.         35.  "Estimation,  Optimization,  and Control  in  Rural  Emergency 
  9560.    Medical Service (EMS) Systems", Cecil D. Burge, Ph.D., P.E.
  9561.         36.  "Visions for a Networked System of Emergency Vehicle  Training 
  9562.    Simulators", Gregory J. Bookout.
  9563.         37. "The FEMA ROCS Model", Henry S. Liers, Ph.D.
  9564.         38.  "Computers  bring Crisis Simulations to  Life  using  Computer 
  9565.    Maps,  Graphics, and Databases to Re-Define and Maximize the  Effective-
  9566.    ness  of "Tabletop" Crisis Simulations", James W. Morentz,  Ph.D.,  Lois 
  9567.    Clark McCoy, Joseph Appelbaum, David Griffith.
  9568.         39.  "The Use of Computer Simulations for Consequence  Analysis  of 
  9569.  
  9570.  
  9571.  
  9572.  
  9573.  
  9574.  
  9575.    Toxic Chemical Releases", E.D. Chikhliwala, M. Oliver, S. Kothandarman.
  9576.         40. "Didactic Simulation (Syndicate Exercise) for Disaster  Manage-
  9577.    ment", Dr. S. Ramini.
  9578.         41.  "Its Just one Damn' Crisis After Another...", S.F.  Blinkhorn, 
  9579.    M.A., Ph.D.
  9580.         42. "AEDR, American Engineers for Disaster Relief Database, Spread-
  9581.    sheet and Wordprocessing Applications", James S. Cohen.
  9582.         43.  "Geophysical  Uncertainties Affecting Emergencies",  James  H. 
  9583.    Bradley, Ph.D.
  9584.         44. "Consultation on Simulation for Emergency Preparedness  (COSEP) 
  9585.    User/Developer Roundtable Discussion Session", Lois Clark McCoy,  Donald 
  9586.    E. Newsom, Jacques Mitrani.
  9587.    
  9588.    1992 Proceedings
  9589.         1. "Are We Winning the War Against Emergencies", James D. Sullivan, 
  9590.    CCP, CDP, CSP.
  9591.         2. "Simulation of Suburban Area Fires", A. Ben Clymer.
  9592.         3. "Expertgraph: Knowledge Based Analysis and Real Time  Monitoring 
  9593.    of  Spatial  Data  Application  to  Forest  Fire  Prevention  in  French 
  9594.    Riviera", Jean Luc Wybo.
  9595.         4.  "Simulation  in  Support of The  Chemical  Stockpile  Emergency 
  9596.    Preparedness Program (CSEPP)", Robert T. Jaske, P.E., Madhu Beriwal.
  9597.         5.  "Modeling  Protective  Action Decisions  for  Chemical  Weapons 
  9598.    Accidents", John H. Sorensen, George O. Rogers, Michael J. Meador.
  9599.         6. "Simulation Meets Reality - Chemical Hazard Models in Real World 
  9600.    Use", Donald E. Newsom, Ph.D., P.E.
  9601.         7.  "Managing the Risk of a Large Marine Chemical Spill",  Marc  B. 
  9602.    Wilson, John R. Harrald.
  9603.         8.  "Simclone  - A Simulated Cyclone - Some  User  Experiences  and 
  9604.    Problems", Dr. S. Ramani.
  9605.         9. "Simulation of Coastal Flooding Caused by Hurricanes and  Winter 
  9606.    Storms", Y.J. Tsai.
  9607.         10.  "Simulation of Environmental Hazards in a Geographic  Informa-
  9608.    tion System: A Transboundary Urban Example from the Texas/Mexico Border-
  9609.    lands", Thomas M. Woodfin.
  9610.         11.  "Simulation  and  Protection in  Avalanche  Control",  Laurent 
  9611.    Buisson.
  9612.         12.  "Natural Disasters, Space Technology, and the  Development  of 
  9613.    Expert  Systems: Some Recent Developments in Australian  National  River 
  9614.    Basin Planning and Management", A.M.G. Jarman, Ph.D.
  9615.         13. "Characterizing Mine Emergency Response Skills: A Team Approach 
  9616.    to Knowledge Acquisition", Launa Mallet, Charles Vaught.
  9617.         14.  "Using Simulation to Prepare for Emergency Mine  Fire  Evacua-
  9618.    tion", Audrey F. Glowacki.
  9619.         15. "Dymod: Towards Real Time, Dynamic Traffic Routing During  Mass 
  9620.    Evacuations", Frank Southworth, Bruce N. Janson, Mohan M. Venigalla.
  9621.         16.  "A Tutorial on Modeling Emergency Evacuation",  Thomas  Kisko, 
  9622.    Suleyman Tufekci.
  9623.         17.  "REMS: A Regional Evacuation Decision Support System",  Thomas 
  9624.    Kisko, Suleyman Tufekci.
  9625.         18.  "EVACSIM:  A  Comprehensive Evacuation  Simulation  Tool",  K. 
  9626.    Harrald  Drager, Gunnar Lovas, Jo Wiklind, Helge Soma, Duc  Duong,  Anne 
  9627.    Violas, Veronique Laneres.
  9628.         19.  "The Prediction of Time-Dependent  Population  Distributions", 
  9629.    George Banz.
  9630.  
  9631.  
  9632.  
  9633.  
  9634.  
  9635.  
  9636.         20. "Mulit-Objective Routing in Stochastic Evacuation Networks", J. 
  9637.    MacGregor Smith.
  9638.         21.  "Earthquake  Impact Projections  Expert  System  Application", 
  9639.    Barbara Skiffington, Robert Wilson.
  9640.         22.  "An Economic Profile of a Regional Economy Based on an  Implan 
  9641.    Derived Database", E. Lawrence Salkin.
  9642.         23.  "Energy  Corrected  Simulation  Accelerograms  for  Non-Linear 
  9643.    Structures", Darush Davani, Michael P. Gaus.
  9644.         24.   "Stimulating   the   Planning   Progress   Through   Computer 
  9645.    Simulation", Salvatore Belardo, John R. Harald.
  9646.         25. "Simulation Methods in Utility Level Nuclear Power Plant  Emer-
  9647.    gency Exercises", Klaus Sjoblom.
  9648.         26.  "Computer Simulation of Industrial Base Capacity to  Meet  Na-
  9649.    tional Security Requirements", Mile Austin.
  9650.         27.  "The  FEMA  Emergency Management  Assessment  System",  Robert 
  9651.    Wilson.
  9652.         28. "The Missing Data Base: Under-Automation in Disaster Response & 
  9653.    Planning", Lois Clark McCoy.
  9654.         29. "The Environmental Education: Need for All", M. Abdul Majeed.
  9655.  
  9656.  
  9657.  
  9658.  
  9659.  
  9660.  
  9661.                            === Call For Papers ===
  9662.    
  9663.                      SIMULATION FOR EMERGENCY MANAGEMENT
  9664.    
  9665.             Sponsored by The Society for Computer Simulation, SCS
  9666.                               April 11-15, 1994
  9667.                             La Jolla - California
  9668.                Part of the SCS 1994 Simulation Multiconference
  9669.    
  9670.    A special topic area of the SMC '94, sponsored by the Emergency  Manage-
  9671.    ment  Engineering Technical Activity Committee of the SCS brings  users, 
  9672.    planners,  researchers, managers, technicians, response  personnel,  and 
  9673.    other  interested parties to learn, teach, present, share, and  exchange 
  9674.    ideas  and information about how, when, where, and why computer  simula-
  9675.    tion and related tools can be used to avoid, mitigate, and recover  from 
  9676.    disasters and other emergencies.
  9677.    
  9678.                                     Topics
  9679.    Natural Disasters
  9680.         Hurricanes  and Tornadoes, Floods, Earthquakes, Volcanic  Activity, 
  9681.    Outdoor fires, snow and debris avalanches.
  9682.    
  9683.    Man-made Disasters
  9684.         Oil, Chemical and Nuclear spills, Nuclear and Chemical plant  acci-
  9685.    dents, building fires, Communication systems failures, Utility failures.
  9686.    
  9687.    Techniques
  9688.         Training and Simulators, AI and Expert systems, Global  information 
  9689.    systems,  Risk Analysis, Operations Research, Simulation,  Effectiveness 
  9690.    analysis, Cost and Damage analysis.
  9691.    
  9692.    Specific Applications
  9693.         Evacuation, Research on Emergency Management or Engineering,  Emer-
  9694.    gency Control Search and Rescue.
  9695.    
  9696.    Presentations, demonstrations and exhibits concerning any and all  areas 
  9697.    of  simulation and modeling (as well as related technologies)  including 
  9698.    safety, emergency management and planning, forensic technology,  design, 
  9699.    response, user experience and problems and case studies are  appropriate 
  9700.    to be presented.
  9701.    
  9702.    Papers or abstracts can be submitted until late December to:
  9703.         Simulation for Emergency Management
  9704.         c/o SMC '94
  9705.         P.O. Box 17900
  9706.         San Diego, CA 92177
  9707.         Phone (619)-277-3888, Fax (619)-277-3930
  9708.    
  9709.    Other Conferences and activities being held as part of SMC '94
  9710.         Simulators  International,  High Performance  Computing  Symposium, 
  9711.    Visualization, Validation & Verification of Computer Simulation, Mission 
  9712.    Earth,  Military,  Government,  and Aerospace  Simulation,  27th  Annual 
  9713.    Simulation Symposium, Professional Development Seminars, and Exhibits.
  9714.  
  9715.  
  9716.  
  9717.  
  9718. Approved: parallel@hubcap.clemson.edu
  9719. Follow-up: comp.parallel
  9720. Path: bounce-back
  9721. Newsgroups: comp.parallel
  9722. From: ferreira@cri.ens-lyon.fr (Afonso Ferreira)
  9723. Subject: CFP: Int. Conf. on Parallel Algorithms
  9724. Organization: Ecole Normale Superieure de Lyon
  9725. References: <93-10-065@comp.compilers>
  9726.  
  9727.     *****************************************************************
  9728.     *    Final Announcement and Call for Papers            *
  9729.     *                                *
  9730.     *    CANADA-FRANCE CONFERENCE ON PARALLEL COMPUTING        *
  9731.     *                                *
  9732.     *    Montreal - May 18-20, 1994                *
  9733.     *****************************************************************
  9734.  
  9735.  
  9736. This conference will provide an international forum for researchers
  9737. investigating algorithmic and structural aspects of distributed memory parallel
  9738. computing.  The conference will be held at Concordia University in downtown
  9739. Montreal the week before the 1994 ACM Symposium on Theory of Computing.
  9740. Authors are invited to submit papers describing original, unpublished research
  9741. results in the following areas of parallel computing.
  9742.  
  9743. -- Communication in interconnection networks
  9744. -- Discrete algorithms
  9745. -- Embeddings and mappings
  9746. -- Geometric algorithms
  9747. -- Algorithms for unstructured problems
  9748. -- Data structures
  9749.  
  9750.  
  9751. Invited Speakers
  9752. ----------------
  9753.  
  9754. Ravi Baliga (CERCA, Montreal)
  9755. Jean-Claude Bermond (CNRS, I3S, Nice)
  9756. Frank Dehne (Carleton U., Ottawa)
  9757. Nicholas Pippenger (UBC, Vancouver)
  9758. Dominique Sotteau (CNRS, LRI, Paris)
  9759.  
  9760.  
  9761. Program Committee
  9762. -----------------
  9763.  
  9764. Selim Akl (Queen's U., Kingston),
  9765. Michel Cosnard (LIP - ENS Lyon), 
  9766. Pierre Fraigniaud (LIP - ENS Lyon),
  9767. Marie-Claude Heydemann (U. de Paris-Sud),
  9768. Arthur Liestman (Simon Fraser U., Vancouver),
  9769. Prakash Panangaden (McGill U., Montreal),
  9770. Ajit Singh (U. of Waterloo),
  9771. Ivan Stojmenovic (U. of Ottawa),
  9772. Denis Trystram (LMC, Grenoble),
  9773. Alan Wagner (UBC, Vancouver).
  9774.  
  9775.  
  9776. Organizing Committee
  9777. --------------------
  9778.  
  9779. Afonso Ferreira (CNRS, LIP, ENS Lyon),
  9780. Gena Hahn (U. de Montreal),
  9781. Jaroslav Opatrny (Concordia U., Montreal),
  9782. Joseph Peters (Simon Fraser U., Vancouver),
  9783. Vincent Van Dongen (CRIM, Montreal).
  9784.  
  9785.  
  9786. Instructions for Authors
  9787. ------------------------
  9788.  
  9789. All submisssions will be refereed and all accepted papers will be published in
  9790. the conference proceedings.  An author of each accepted paper is required to
  9791. attend the conference and to present the paper.  Papers should not exceed 15
  9792. pages and should include an abstract and several descriptive keywords.  Authors
  9793. should send 5 copies of their manuscripts to the Program Committee Chair:
  9794.  
  9795. Michel Cosnard
  9796. Laboratoire de l'Informatique du Parallelisme
  9797. Ecole Normale Superieure de Lyon
  9798. 46, Allee d'Italie
  9799. 69364 Lyon Cedex 07
  9800. France
  9801.  
  9802.  
  9803. Dates
  9804. -----
  9805.  
  9806. October 31, 1993: Deadline for submission of papers
  9807. January 31, 1994: Notification of acceptance
  9808. February 28, 1994: Deadline for camera-ready copy
  9809.  
  9810.  
  9811. Partners
  9812. --------
  9813.  
  9814. Centre Jacques Cartier
  9815. Concordia University
  9816. NSERC (tentative)
  9817. PRC C3 of the French CNRS
  9818.  
  9819.  
  9820.  
  9821. Approved: parallel@hubcap.clemson.edu
  9822. Follow-up: comp.parallel
  9823. Path: bounce-back
  9824. Newsgroups: comp.parallel
  9825. From: jan@cs.ruu.nl (Jan van Leeuwen)
  9826. Subject: ESA'94 European Symposium on Algorithms
  9827. Organization: Utrecht University, Dept. of Computer Science
  9828.  
  9829.                          CALL FOR PAPERS
  9830.  
  9831.              2nd Annual EUROPEAN SYMPOSIUM ON ALGORITHMS
  9832.                             (ESA'94)
  9833.  
  9834.            SEPTEMBER 26-28, 1994, UTRECHT - THE NETHERLANDS
  9835.  
  9836. In the new series of annual international symposia on algorithms, the
  9837. Second Annual European Symposium on Algorithms (ESA'94) will be held
  9838. near Utrecht, The Netherlands, September 26-28, 1994. The European Symposium
  9839. on Algorithms covers ALL RESEARCH ON ALGORITHMS such as it is carried out in
  9840. the fields of (THEORETICAL) COMPUTER SCIENCE, DISCRETE APPLIED MATHEMATICS and
  9841. all OTHER AREAS of algorithm-oriented research AND ITS APPLICATION.
  9842. The Symposium aims at intensifying the exchange of information on new
  9843. research directions and at the presentation of recent research results
  9844. and their utilization in the field.
  9845.  
  9846. SCOPE: the Symposium covers ALL RESEARCH IN THE FIELD OF SEQUENTIAL, PARALLEL
  9847. AND DISTRIBUTED ALGORITHMS and its application. Papers are solicited
  9848. describing original results in ALL FIELDS OF ALGORITHMS RESEARCH, both in
  9849. general and in specific areas such as: graph- and network problems,
  9850. computational geometry, algebraic problems and symbolic computation, pattern
  9851. matching, combinatorial optimization, neural and genetic computing,
  9852. cryptography, and so on. ESA also solicits papers describing original results
  9853. in ALGORITHMS RESEARCH APPLIED TO CONCRETE PROBLEMS IN SCIENCE AND INDUSTRY or
  9854. dealing with new (algorithmic) issues arising in the implementation of
  9855. algorithms in real-world problems.
  9856.  
  9857. AUTHORS are invited to submit 12 copies of an extended abstract or full draft
  9858. paper of at most 12 pages before MARCH 25, 1994 to the chairman of the
  9859. program committee:
  9860.                     Professor Jan van Leeuwen 
  9861.                     Dept of Computer Science
  9862.                     Utrecht University
  9863.                     Padualaan 14 
  9864.                     3584 CH  UTRECHT
  9865.             THE NETHERLANDS
  9866.                     (email : jan@cs.ruu.nl)
  9867.  
  9868. Submissions should also include the fax number and email address of the
  9869. sender. Notification of acceptance follows by May 20, 1994. Accepted papers
  9870. will be published in the proceedings of the Symposium, which will appear in
  9871. the series Lecture Notes in Computer Science of Springer-Verlag. Camera-ready
  9872. copy is due before June 20, 1994. All participants receive a copy of the
  9873. proceedings as part of their registration.
  9874.  
  9875.                     PROGRAM COMMITTEE
  9876.  Helmut Alt (Berlin)                Thomas Lengauer (Bonn)
  9877.  Giuseppe Di Battista (Rome)        Jan Karel Lenstra (Eindhoven)
  9878.  Philippe Flajolet (Paris)          Andrzej Lingas (Lund)
  9879.  Alon Itai (Haifa)                  Bill McColl (Oxford)
  9880.  Lefteris Kirousis (Patras)         Friedhelm Meyer auf der Heide (Paderborn)
  9881.  Jan van Leeuwen (Utrecht, chair)   Wojciech Rytter (Warsaw)
  9882.  
  9883.                      ORGANIZING COMMITTEE
  9884.  Hans Bodlaender, Marko de Groot, Jan van Leeuwen, Margje Punt, and
  9885.  Marinus Veldhorst (Utrecht University).
  9886.  
  9887. LOCATION: the Symposium will be held in the conference facilities of the
  9888. `National Sports Centre Papendal' of the Dutch National Sports Federation.
  9889. The conference centre is located in a beautifully forested area near the city
  9890. of Arnhem, some 30 miles east of Utrecht. It features excellent facilities
  9891. for recreational sports (golf, swimming, tennis, and so on) and very pleasant
  9892. surroundings. 
  9893.  
  9894. For all further information on ESA'94 please contact :
  9895.                     Marko de Groot 
  9896.                     Dept of Computer Science
  9897.                     Utrecht University
  9898.                     phone: +31-30-534095 / +31-30-531454 
  9899.                     fax: +31-30-513791
  9900.                     email: marko@cs.ruu.nl
  9901.  
  9902. CALL FOR PAPERS     CALL FOR PAPERS     CALL FOR PAPERS     CALL FOR PAPERS
  9903. ===============================================================================
  9904.  
  9905. Approved: parallel@hubcap.clemson.edu
  9906. Follow-up: comp.parallel
  9907. Path: bounce-back
  9908. Newsgroups: comp.ai.genetic,comp.robotics,comp.parallel
  9909. From: Pierre.Bessiere@imag.fr (pierre bessiere )
  9910. Subject: TR: Genetic Algorithms for robotics (in French)
  9911. Organization: Institut Imag, Grenoble, France
  9912.  
  9913. The following Technical Report is available on FTP at ftp.imag.fr
  9914.  
  9915.         ***CAUTION: The report is witten in FRENCH***
  9916.  
  9917. ********************************************************************
  9918. TITLE        :Algorithmes genetiques paralleles pour la planification
  9919.          de trajectoires de robots en environnement dynamique.
  9920. AUTHOR(S)    :Thierry Chatroux
  9921. REFERENCE    :Memoire d'ingenieur CNAM (Conservatoire National des
  9922.          Arts et metiers); Decembre 1993.
  9923. LANGUAGE    :French
  9924. LENGTH        :98 pages
  9925. DATE        :15/10/93
  9926. KEYWORDS    :Path planning, massively parallel computers, genetic 
  9927.          algorithms, geometric modeling, dynamic environment.
  9928. FILE NAME    :chatroux.cnam93.f.ps.Z
  9929. Author E-mail    :chatroux@imag.fr
  9930.          bessiere@imag.fr, muntean@imag.fr, mazer@lifia.imag.fr
  9931. Related Files    :bessiere.iros93.e.ps.Z
  9932. ABSTRACT    :
  9933. Notre travail porte sur l'implantation parallele d'algorithmes de calcul
  9934. de trajectoires en robotique. L'objectif est d'atteindre les performances 
  9935. requises pour controler les deplacements d'un robot dans un environnement
  9936. encombre d'obstacles dynamiques.
  9937.  
  9938. Dans ce memoire nous decrivons l'implantation massivement parallele et
  9939. l'experimentation d'un planificateur de trajectoire pour un bras
  9940. manipulateur a 6 degres de liberte. Pour realiser ce planificateur nous avons 
  9941. utilise une technique d'optimisation basee sur les algorithmes genetiques 
  9942. paralleles, couplee a une technique de planification de trajectoire
  9943. originale l'algorithme fil d'Ariane, constitue de deux algorithmes
  9944. Search et Explore.
  9945.  
  9946. Notre methode a ete mis en oeuvre dans PARX, noyau du systeme d'exploitation
  9947. pour machine massivement paralleles PAROS et implante sur une machine
  9948. Supernode a 128 Transputers. PARX et l'architecture des machines Supernode
  9949. ont ete concus et developpes au sein de l'equipe SYstemes Massivement 
  9950. PAralleles au Laboratoire de Genie Informatique de Grenoble dans le cadre
  9951. des projets ESPRIT SUPERNODE I et II.
  9952. ********************************************************************
  9953.  
  9954.       COMMENT RECUPERER UN FICHIER SUR ftp.imag.fr ?
  9955.       ______________________________________________
  9956.  
  9957. Pour recuperer un fichier xxx.yyy.e.ps.Z :
  9958.  
  9959. Anonymous ftp on:
  9960.     - ftp.imag.fr
  9961. ou    - 129.88.32.1
  9962.  
  9963. yourmachine>ftp ftp.imag.fr
  9964. Name: anonymous
  9965. Password: yourname@youradress
  9966. ftp>cd pub/LIFIA
  9967. ftp>binary    %CETTE LIGNE EST IMPERATIVE! car les fichiers sont compresses%
  9968. ftp>get xxx.yyy.e.ps.Z
  9969. ftp>quit
  9970. yourmachine>uncompress xxx.yyy.e.ps.Z
  9971. yourmachine>lpr -ls xxx.yyy.e.ps
  9972.  
  9973.  
  9974. -- 
  9975.  
  9976. Pierre BESSIERE
  9977. ***************
  9978.  
  9979.  
  9980. Approved: parallel@hubcap.clemson.edu
  9981. Follow-up: comp.parallel
  9982. Path: bounce-back
  9983. Newsgroups: comp.parallel
  9984. From: eugene@nas.nasa.gov (Eugene N. Miya)
  9985. Subject: FAQ for biblios
  9986.  
  9987. Who What Where When Why How
  9988. --- ---- ----- ---- --- ---
  9989.  
  9990. Who
  9991. ---
  9992. Eugene Miya
  9993. has committed to
  9994. maintaining a comprehensive biblio on parallelism for ten years (Ref.).
  9995.  
  9996. What
  9997. ----
  9998. The foundations of the biblio began with several published bibliographies
  9999. on parallelism dating back to 1980.  This bibliography corrects errors
  10000. found in those.  The bibliography is free, but because it was based on
  10001. previously published material, the terms of a copyright with Prentice-Hall
  10002. asks that we record all sites using it.  A hardcopy letterhead of request
  10003. is all it takes to get access.
  10004.  
  10005. The format of the bibliography is straight ASCII and Unix refer for use with
  10006. document processing systems. Converters for bibtex and Scribe (and script)
  10007. exist.  Some of the text contains significant annotation.
  10008.  
  10009. Sources: various published source, unsolicited letters or email, net sources
  10010. (comp.parallel, comp.os.research, comp.research.japan, comp.doc.techreports,
  10011. and others).  Can't cover everything.  It is important that you the reader
  10012. also contribute.  The mass of information, a lack of continued funding,
  10013. and other problems are needed to help keep the community informed.
  10014. It is used by many people: schools, companies, government agencies,
  10015. institutions.
  10016.  
  10017. Where
  10018. -----
  10019. We need a letterhead to be able to tell you where.  Sorry.
  10020. Blame Prentice-Hall.  Miya was only trying to stand on the shoulders
  10021. of giants (if not the toes of his colleagues).
  10022.  
  10023. Why
  10024. ---
  10025. Paper has real problems.  If you go back to the 1980s biblios, the referees
  10026. couldn't do a good job.  Software is far more flexible.  Copyright is
  10027. another problem.
  10028. What makes the biblio special are annotations, comments, keywords by the
  10029. readership and others (many anonymous:  "This stinks," others initialed
  10030. (XYZ), or "signed."  Many institutions already have it.  You only need
  10031. locate the point of contact.  The current size is 6 MBs.
  10032.  
  10033. It is also helpful if you as a student of parallel processing NOT simply
  10034. post rehashes of his references (he can tell, believe me).  It just
  10035. increases the catch up work.  Instead, separate Miya references from
  10036. non-Miya references, so that he can add incorporate them (and reformat
  10037. if necessary) long with other references.  Thinking of this like a
  10038. recording secretary except the combined knowledge of the parallelism
  10039. experts on the net.
  10040.  
  10041. Upside:
  10042. It tries to be comprehensive.
  10043. It provides better coverage and collected commentary (in some cases)
  10044. than bibliographic services.  It tries to cut an honest deck.
  10045.  
  10046. Downside:
  10047. It is large.
  10048. It is not as always as up to date as the maintainer would like, but he
  10049. and the community tries.  You can help, too.
  10050.  
  10051. Reference (this also shows what refer looks like [See Mike Lesk's paper
  10052. on inverted indices in the Unix manual):
  10053.  
  10054. %A E. N. Miya
  10055. %T Multiprocessor/Distributed Processing Bibliography
  10056. %J Computer Architecture News
  10057. %I ACM SIGARCH
  10058. %V 13
  10059. %N 1
  10060. %D March 1985
  10061. %P 27-29
  10062. %K Annotated bibliography, computer system architecture, multicomputers,
  10063. multiprocessor software, networks, operating systems, parallel processing,
  10064. parallel algorithms, programming languages, supercomputers,
  10065. vector processing, cellular automata, fault-tolerant computers,
  10066. some digital optical computing, some neural networks, simulated annealing,
  10067. concurrent, communications, interconnection,
  10068. %X Notice of this work.  Itself.  Quality: no comment.
  10069. Also short note published in NASA Tech Briefs vol. 12, no. 2, Feb. 1988,
  10070. pp. 62. Also referenced in Hennessy & Patterson pages 589-590.
  10071. About an earlier unmaintained version.  TM-86000 and ARC-11568.
  10072. Maintaining for ten years with constant updates (trying to be complete
  10073. but not succeeding).  Limited verification against bibliographic systems
  10074. (this is better than DIALOG).  Storing comments from colleagues
  10075. (DIALOG can't do this.)  Rehash sections on a Sequent as a test of parallel
  10076. search (this work exhibits unitary speed-up).  8^).
  10077. The attempt is to collect respected comments as well as references.
  10078. Yearly net posting results hopefully updated "grequired" and "grecommended"
  10079. search fields.  Attempted to be comprehensive up to 1989.
  10080. $Revision:$ $Date:$
  10081.  
  10082.  
  10083.  
  10084.  
  10085.  
  10086. The standard email request letter follows:
  10087.  
  10088. The parallel/distributed processing bibliography (in machine readable
  10089. form) is documented in ACM CAN:
  10090.  
  10091. %A E. N. Miya
  10092. %T Multiprocessor/Distributed Processing Bibliography
  10093. %J Computer Architecture News
  10094. %I ACM SIGARCH
  10095. %V 13
  10096. %N 1
  10097. %D March 1985
  10098. %P 27-29
  10099.  
  10100. It began with a bibliography published in 1980 by
  10101.  
  10102. %A M. Satyanarayanan
  10103. %T Multiprocessing: an annotated bibliography
  10104. %J Computer
  10105. %V 13
  10106. %N 5
  10107. %D May 1980
  10108. %P 101-116
  10109. %X Excellent reference source, but dated.
  10110. Text reproduced with the permission of Prentice-Hall \(co 1980.
  10111. $Revision: 1.2 $ $Date: 84/07/05 16:58:56 $
  10112.  
  10113. My work is considerably larger (about 100 times).  In order to obtain
  10114. a copy on the Internet, I am required to ask for a letterhead from
  10115. an institution stating that they understand portions are copywritten.
  10116. It's free, so that is not much to ask.  Please also send any corrections,
  10117. typos, additions to me.  Annotations and keywords are particularly
  10118. encouraged, since I can't read everything.  Citation in any of your
  10119. published work is appreciated since this supports my work.
  10120. Send letterhead to:
  10121.     E. Miya
  10122.     MS 258-5
  10123.     NASA Ames Research Center
  10124.     Moffett Field, CA 94035
  10125.  
  10126. Please include your return Email address.  I maintain copies on some
  10127. sites, your site may have one already.  Check with your site admin.
  10128. The usual place is kept controlled to abide by terms of the copyright.
  10129. I try to keep one point of contact to keep things simple.  A list follows.
  10130.  
  10131. If you are not on the Internet, you can obtain an older version
  10132. (with source files) from
  10133.     COSMIC
  10134.     Univ. of Georgia
  10135.     382 East Broad St.
  10136.     Athens, GA 30602
  10137. It's ASCII/refer (that's the format above) bibliographic, tar/Unix tape
  10138. format.  There is a tape handling charge.  Special requests: IBM format
  10139. tapes, VMS BACKUP format are also possible, ask me, not COSMIC for these.
  10140. Tape distribution is now restricted to North America, but I am trying
  10141. to get world-wide distribution again.
  10142.  
  10143. Details: Why refer? ( 1) human readable ASCII, not a binary format,
  10144. 2) easily convertable to other formats (EBCDIC), 3) at the time bibtex didn't
  10145. exist, 4) less overhead than bibtex (fields smaller, however I decided in
  10146. favor of full names for journals rather than abbrev. because many users
  10147. don't know what ICPP or IDCS stand for....,
  10148. 5) not only can you search it, but you can use it with a filter or formatter
  10149. like troff with reasonable reformatting results, stylistic considerations
  10150. like whether author names should have initials or full names can be automated.
  10151.  
  10152. Contact points (not every Dept. is a CS dept).
  10153.  
  10154. NASA: me
  10155. ICASE: me (Nancy Shoemaker, Bob Voigt)
  10156. LLNL/MPCI/CRG/NERSC: me
  10157. UCSC: me (Darrell Long)
  10158. UC Berkeley: me (Eric Allman, formerly Mike Kupfer)
  10159.  
  10160. AMT: Rex Thanakij
  10161. Aerospace Corp: Anne Finestone
  10162. Amdahl: Hideo Wada (IBM format)
  10163. AT&T: Steve Crandall
  10164. ANL: Robert Harrison
  10165. Aus.NU: David Hawking
  10166. Battelle: Rick Kendall
  10167. Baylor CM: Stanley Hanks
  10168. BBN: Miles Fidelman
  10169. Boston U: A. Heddaya
  10170. Brown: John Savage
  10171.  
  10172. Clemson: Steve Stevenson
  10173. Columbia: Yoram Eisenstadter or Ella Sanders
  10174. Convex: Greg Astfalk
  10175. Cornell: Doug Elias
  10176. CoState: Dale Grit (or RRO)
  10177. Cray: Tim Hoel
  10178. DDt: Anders Ardo
  10179. Denelcor (maybe Tera now): B. Smith
  10180. DEC: Walter Lamia/John Sopka/C. Kiefer [no longer at DEC]
  10181. Dorian Research: R. Levine
  10182. DSTO (oz): Charles Watson
  10183. Duke U.: Mark Jones
  10184. Emory: V. Sunderam
  10185. Encore: Peter Fay
  10186. ETH: R. Ruhl
  10187. EPFL: Lars Bombolt
  10188. FPS (defunct): Tom Bauer
  10189. Fr.-Alex. Univ. Erlangen-Nurnberg: J. Kleinoder
  10190. Fujitsu America, Inc.: Ken Muira
  10191. GaTech: Karsten Schwan (Gene Spafford)
  10192. GEC, NY: David O'Hallaron
  10193. GMD MBH: Ernst-Joachim Busse
  10194. GMD First: Diantong Liu
  10195. HaL: Dennis Allison
  10196. Harvard U: Stravos Macrakis
  10197. Horizon RI: Craig Hughes
  10198. Hope College: M. Jipping
  10199. IBM: F. Darema
  10200. Indiana U: Dennis Gannon
  10201. Inst. di Disica Cosmica, SIAM: G. Boella
  10202. INRIA: Jean-Jacques Levy
  10203. ISS: Jit Biswas
  10204. Intermetrics: William White
  10205. JVNC: Bruce Bathurst
  10206. Loral: Ian Kaplan (Defunct)
  10207. Katholieke Univ. Leuven: Prof. D. Roose
  10208. KSR: M. Presser
  10209. Martin Marietta Energy (OR,TN): Richard Hicks
  10210. MCC: ???
  10211. Mitre: Thomas Gerasch
  10212. MIT: Rich Lethin
  10213. Maspar: Peter Christy [now at SUN, Kaplan might be able to help]
  10214. Mich. State U: Richard Enbody
  10215. Minn.SC: Dennis Lienke
  10216. Miss. State U: Donna Reese
  10217. Monash U: W. Brown/Sim Or/Peter Sember
  10218. Motorola: Fred Segovich
  10219. Myrias: Jean Andruski (defunct)
  10220. NAG: P. Mayes
  10221. NM Tech: G. Francia, III
  10222. NOSC: H. Smith
  10223. Northrup: Jeff Crameron
  10224.  
  10225. NYU: Allen Gottlieb
  10226. OhioState: Jeff Martens
  10227. OrGI: Robbie Babb (Dave DiNucci, defunct)
  10228. OrSU: Youfend Wu
  10229. Purdue: Andrew Royappa
  10230. Rice: Ken Kennedy
  10231. Rutgers: A. Gerasoulis
  10232. Rutherford Appleton: David Greenaway
  10233. Santa Clara U.: Hasan AlKhatib
  10234. Schlumberger: Peter Highnam
  10235. SGI: Jim Denhert
  10236. SMU: I. Gladwell
  10237. SWRI: Richard Murphy
  10238. SRI: Cliff Isberg
  10239. Stanford: Byron Davies/M. Flynn/V. Pratt/J. Hennessey/Andy Tucker
  10240. Stony Brook: L. Wittie
  10241. NPAC/Sycrause: Bill O'Farrell
  10242. SSI: ???
  10243. SUN: Lisa Steiner/Bob Birss
  10244. TAI: Lisa Vander Sluis
  10245. TI: Bryon Davies
  10246. TMC: Robin Perera
  10247. Ultra: Bill Overstreet
  10248. U. Adel.: Bruce Tonkin
  10249. U. Ala.: Steve Wixson
  10250. U. at Albany: Steven Sutphen
  10251. Univ. AZ: Peter Wolcott/Matthew Saltzman
  10252. UBC: Donald Acton
  10253. U. Buff.: John Case
  10254. UCLA: ???
  10255. UCSD: Greg Hidley
  10256. UCF: Narsingh Deo/Shivakumar Sastry
  10257. UCDublin: John Dunnion
  10258. UCo, Boulder: Lloyd Fosdick (Mike Schwartz)
  10259. U Del.: Gary Delp/Dave Farber
  10260. U. Edinburgh: Tom Stimerling/Richard Eyre-Todd/R. Ibbett
  10261. U. Exeter: Patrick Lidstone
  10262. Univ. Fed. de Minas Gerais: Marcio Luiz Bunte de Carvalho
  10263. UFl: G. Fischer
  10264. U. Ha.: Tim Brown
  10265. UHo: Francis Kam
  10266. UId.: Howard Demuth
  10267. UIll.: Steve Turner/Dan Reed
  10268. U. Kaiser.: Gerhard Zimmermann/ F.R. Abmann
  10269. U. Lan.: Vince Aragon/ C. D. Paice
  10270. U. Mel.: K. Forward
  10271. Univ. NM: krishna@rye.cs.unm.edu/Art St. George
  10272. U Minn.: Gary Elsesser/Steven Miller
  10273. UNL: Ashok Samal
  10274. U. Notre Dame: Karl Heubaum
  10275. UNC: Bruce Smith
  10276. UNTx: Roy Jacob
  10277. U. Pitt.: Mary Lou Soffa
  10278. U. Qu.: V. L. Narasimhan
  10279. U. Roch.: Cesar Quiroz
  10280. U. So. Cal: Les Gasser
  10281. U. So. Car: John Bowles/David Walker
  10282. U Strathclyde: Magnus Luo
  10283. Univ. Stuttgart: Joachim Maier
  10284. U. Tx Austin: Vipin Kumar
  10285. U. Tx Dallas: Eliezer Dekel/Leslie Crawford
  10286. U. Trond.: Petter Moe
  10287. U U: Armin Liebchen
  10288. UWa: Jean Loup Baer
  10289. U Waterloo: Peter Bain
  10290. U. Wis.: Gregory Moses
  10291. Utrecht U.: Lex Wolters
  10292. Wa. St. U: Alan Genz
  10293. W. Mi. U: John Kapenga
  10294. Yale U.: Miriam Putterman
  10295. BRL?: Curt Levey (host former brunix)
  10296. Wa. U (SL. Mo): Fred Rosenberger
  10297. Zentralinst. fur Ang. Math.: J. Fr. Hake
  10298. paulo rosado
  10299.  
  10300. Others
  10301.  
  10302.  
  10303.  
  10304. Approved: parallel@hubcap.clemson.edu
  10305. Follow-up: comp.parallel
  10306. Path: bounce-back
  10307. Newsgroups: comp.parallel
  10308. From: walker@rios2.epm.ornl.gov (David Walker)
  10309. Subject: SHPCC94 Call for Papers reminder
  10310.  
  10311.  
  10312.               THE 1994 SCALABLE HIGH PERFORMANCE COMPUTING CONFERENCE
  10313.            
  10314.                     SHPCC94
  10315.  
  10316.             DEADLINE FOR EXTENDED ABSTRACTS OF PAPERS: November 1, 1993
  10317.  
  10318.  
  10319.                   KNOXVILLE, TENNESSEE, U.S.A., MAY 23 - 25, 1994
  10320.  
  10321. GENERAL CHAIR:  Jack Dongarra
  10322.                 University of Tennessee and Oak Ridge National Laboratory
  10323.         dongarra@cs.utk.edu 615 974-8296 (fax)
  10324.  
  10325. PROGRAM CHAIR:  David W. Walker
  10326.         Oak Ridge National Laboratory
  10327.         walker@msr.epm.ornl.gov 615 574-0680 (fax)
  10328.  
  10329. PROGRAM COMMITTEE:
  10330.    David Bailey, NASA Ames Research Center
  10331.    William Gropp, Argonne National Laboratory
  10332.    Rolf Hempel, Gesellschaft fur Mathematik und Datenverarbeitung, Germany
  10333.    Anthony Hey, University of Southampton
  10334.    Charles Koelbel, Rice University
  10335.    Steve Otto, Oregon Graduate Institute
  10336.    Cherri Pancake, Oregon State University
  10337.    Paul Pierce, Intel Supercomputer Systems Division
  10338.    Sanjay Ranka, Syracuse University
  10339.    Gary Sabot, Thinking Machines Corporation
  10340.    Robert Schreiber, NASA RIACS
  10341.    Bernard Tourancheau, LIP, CNRS, Ecole Normale Superieure de Lyon, France
  10342.    Robert van de Geijn, University of Texas, Austin
  10343.    Katherine Yelick, University of California, Berkeley
  10344.  
  10345. SPONSORED BY:   IEEE Computer Society
  10346.  
  10347. The 1994 Scalable High Performance Computing Conference (SHPCC94) is 
  10348. a continuation of the highly successful Hypercube Concurrent Computers 
  10349. and Applications (HCCA), and Distributed Memory Concurrent Computing (DMCC) 
  10350. conference series. SHPCC takes place biennially, alternating with the 
  10351. SIAM Conference on Parallel Processing for Scientific Computing.
  10352.  
  10353. INVITED SPEAKERS:
  10354.    Guy Blelloch, Carnegie Mellon University
  10355.    Phil Colella, University of California, Berkeley
  10356.    David Culler, University of California, Berkeley
  10357.    Monica Lam, Stanford University
  10358.    Marc Snir, IBM T.J. Watson Research Center
  10359.  
  10360. SHPCC94 will provide a forum in which researchers in the field of high 
  10361. performance computing from government, academia, and industry can 
  10362. presents results and exchange ideas and information. SHPCC94 will cover 
  10363. a broad range of topics relevant to the field of high performance 
  10364. computing. These topics will include, but are not limited to, the following;
  10365.  
  10366.     Architectures                 Load Balancing
  10367.     Artificial Intelligence       Linear Algebra
  10368.     Compilers                     Neural Networks
  10369.     Concurrent Languages          Non-numerical Algorithms
  10370.     Fault Tolerance               Operating Systems
  10371.         Image Processing              Programming Environments
  10372.     Large-scale Applications      Scalable Libraries
  10373.         C++
  10374.  
  10375. THE SHPCC94 program will include invited talks, contributed talks, posters, and
  10376. tutorials. SHPCC94 will take place at the Holiday Inn Convention Center in 
  10377. Knoxville, Tennessee. Registration details will be made available later.
  10378.  
  10379. Instructions for Submitting Papers
  10380. ----------------------------------
  10381.  
  10382. Authors are invited to submit contributed papers describing original 
  10383. work that makes a significant contribution to the design and/or use of high 
  10384. performance computers.  All contributed papers will be refereed by at least 
  10385. three qualified persons. All papers presented at the conference will be 
  10386. published in the Conference Proceedings.
  10387.  
  10388. 1. Submit 3 copies of an extended abstract of approximately 4 pages. Abstracts 
  10389.    should include a succinct statement of the problems that are considered 
  10390.    in the paper, the main results achieved, an explanation of the significance 
  10391.    of the work, and a comparison with past research. To ensure a high academic 
  10392.    standard, the abstracts of all contributed papers will be refereed.
  10393.  
  10394.    DEADLINE FOR EXTENDED ABSTRACTS OF PAPERS: November 1, 1993
  10395.    Authors will be notified of acceptance by January 14, 1994
  10396.  
  10397.    DEADLINE FOR FINAL CAMERA-READY COPY OF COMPLETE PAPER: February 14, 1994
  10398.    The final complete paper should not exceed 10 pages.
  10399.  
  10400. 2. Each copy of the extended abstract should have a separate title page 
  10401.    indicating that the paper is being submitted to SHPCC94. The title page 
  10402.    should also give the title of the paper and the names and addresses of 
  10403.    the authors. The presenting author, and the author to whom notification 
  10404.    of acceptance should both be sent, should be clearly indicated on the title 
  10405.    page, together with their phone, fax, and email.
  10406.  
  10407. 3. Extended abstracts should be sent to the Program Chair, David Walker, 
  10408.    at the address above.
  10409.  
  10410. Poster Presentations
  10411. --------------------
  10412. Poster presentations are intended to provide a more informal forum in which to
  10413. present work-in-progress, updates to previously published work, and 
  10414. contributions not suited for oral presentation. To submit a poster 
  10415. presentation send a short (less than one page) abstract to the Program Chair, 
  10416. David Walker, at the address above. Poster presentations will not appear 
  10417. in the Conference Proceedings.
  10418.  
  10419.    DEADLINE FOR SHORT ABSTRACTS OF POSTERS:   November 1, 1993
  10420.    Poster presenters will be notified of acceptance by January 14, 1994
  10421.  
  10422. Abstracts for poster presentations must include all the information referred 
  10423. to in (2) above. If this will not fit on the same page as the abstract, 
  10424. then a separate title page should be provided.
  10425.  
  10426. Instructions for Proposing a Tutorial
  10427. -------------------------------------
  10428.  
  10429. Half-day and full-day tutorials provide opportunity for a researchers and 
  10430. students to expand their knowledge in specific areas of high performance 
  10431. computing. To propose a tutorial, send a description of the tutorial and 
  10432. its objectives to the Program Chair, David Walker, at the address above. 
  10433. The tutorial proposal should include:
  10434.  
  10435.    1. A half-page abstract giving an overview of the tutorial.
  10436.    2. A detailed description of the tutorial, its objectives, and intended
  10437.       audience.
  10438.    3. A list of the instructors, with a brief biography of each.
  10439.  
  10440. All tutorials will take place on May 22, 1994.
  10441.  
  10442.    DEADLINE FOR TUTORIAL PROPOSALS:   November 1, 1993
  10443.    Tutorial proposers will be notified of acceptance by January 14, 1994
  10444.  
  10445. For further information contact David Walker at walker@msr.epm.ornl.gov
  10446.  
  10447.  
  10448.  
  10449. Approved: parallel@hubcap.clemson.edu
  10450. Follow-up: comp.parallel
  10451. Path: bounce-back
  10452. Newsgroups: comp.parallel
  10453. From: wang@astro.ocis.temple.edu (Jonathan Wang ( the-wang ))
  10454. Subject: Papers on Fault Tolerance?
  10455. Organization: Temple University
  10456.  
  10457. I am looking for papers on fault tolerance in tuple space
  10458. implementation (as opposed to message passing implementation).
  10459. Any help is appreciated.
  10460.  
  10461. Thanks in advance.
  10462.  
  10463. --wang
  10464.  
  10465.  
  10466. Approved: parallel@hubcap.clemson.edu
  10467. Follow-up: comp.parallel
  10468. Path: bounce-back
  10469. From: lancer@cs.montana.edu (Lance Kind)
  10470. Newsgroups: comp.arch,comp.ai,comp.ai.neural-nets,comp.parallel
  10471. Subject: Re: Publication Announcement for PARALLEL PROCESSING by Moldovan
  10472. Organization: Computer Science, MSU, Bozeman MT, 59717
  10473.  
  10474.     In my personal opinion, its a pretty  good book.
  10475. We are currently using this book for our // processing class.  
  10476.  
  10477. ==>Lancer---
  10478.  
  10479.  
  10480. Approved: parallel@hubcap.clemson.edu
  10481. Follow-up: comp.parallel
  10482. Path: bounce-back
  10483. Newsgroups: comp.parallel
  10484. From: blight@eeserv.ee.umanitoba.ca (David C Blight)
  10485. Subject: SUMMARY : Message Passing Simulators
  10486. Organization: Electrical Engineering, U of Manitoba, Winnipeg, Manitoba, Canada
  10487.  
  10488. Origonal Post :
  10489.  
  10490.     I am curious if anyone knows of any freely available
  10491.     message-passing simulators.  I am not looking for anything
  10492.     specific as i am just curious about what is available if
  10493.     anything.
  10494.  
  10495.     I don't know if there is any interest in this sort of
  10496.     software. I have done what i suspect most people do, wrote
  10497.     my own simulator for the algorithms I am interested in.
  10498.     I am hoping that maybe there is some simulators available
  10499.     that will do common routing algorithms (worm-hole and
  10500.     that sort of stuff)
  10501.  
  10502. Summary :
  10503.  
  10504.     I received responses about 4 different programs
  10505.  
  10506.     I have made all these program available for anonymous
  10507.     ftp on ftp.ee.umanitoba.ca in /pub/parallel
  10508.  
  10509.        
  10510. Netsim program : (titan.cs.rice.edu : public/parallel/sim.tar.Z)
  10511.  
  10512.      Currently available: 
  10513.      
  10514.              YACSIM - A process-oriented discrete-event simulator implemented as an extension
  10515.              of the C programming language.  This simulator has been used extensively for 
  10516.              several years.  It is stable and relatively free of bugs.  There is a reference 
  10517.              manual included in the package. 
  10518.      
  10519.              NETSIM - A general-purpose interconnection network simulator implemented as 
  10520.              an extension of YACSIM.  This simulator is relatively new and has only recently
  10521.              been made available outside Rice.  It has not been used much and almost 
  10522.              certainly contains some bugs, although we have fixed all we know about.  There
  10523.              is a reference manual included in the package.
  10524.      
  10525.              DBSIM - A debugging utility for use with any of the simulators.  This program
  10526.              is operational and documented.  There are no known bugs, but it has not been
  10527.              extensively tested.
  10528.      
  10529.      Not yet available:
  10530.      
  10531.              MEMSIM - A cache and shared address space memory simulator implemented as an
  10532.              extension of YACSIM.  This simulator is currently being extensively revised and
  10533.              is not yet avaiable.  Our goal is to have a version we can distribute by the 
  10534.              end of the summer of 1993.
  10535.      
  10536.              PARCSIM - A parallel architecture simulator implemented as an extension of 
  10537.              YACSIM and including both YACSIM and MEMSIM.  Parts of PARCSIM are operational
  10538.              but it is not complete and not yet ready for distribution.  We hope to have a
  10539.              version that includes NETSIM, but not MEMSIM, available by the middle of the 
  10540.              summer of 1993.  It would be suitable for simulating distributed memory systems.
  10541.  
  10542.  
  10543. Chaos router simulator (shrimp.cs.washington.edu in ~ftp/pub/chaos/simulator)
  10544.  
  10545.     The Chaos router simulator is available via anonymous ftp
  10546.     from shrimp.cs.washington.edu in ~ftp/pub/chaos/simulator.
  10547.  
  10548.     It is written in several thousand lines of ANSI C code,
  10549.     and is known to run on MIPS, SPARC, and ALPHA architectures.
  10550.  
  10551.  
  10552.  
  10553. mpsim 
  10554.  
  10555.     This is Felix Quevedo's Multiprocessor simultator package which he wrote 
  10556.     here at the University of Miami. I've provided a nroff'ed version of his
  10557.     documentation, for those without the ms macros, or perhaps without *roff
  10558.     itself. 
  10559.  
  10560.     The package was developed on a Sun 3 running SunOS 3.5 and has been
  10561.     tested on Sun 4 running SunOS 4.0.3, a vax running Ultrix 3.0, and
  10562.     a mac running A/UX 1.1  The Makefile needs to be changed for non-SunOS
  10563.     systems.
  10564.  
  10565.  
  10566. MIT LCS Advanced Network Architecture group's network simulator
  10567.  
  10568.     This directory contains the MIT LCS Advanced Network Architecture
  10569.     group's network simulator.  The simulator is an event-driven simulator
  10570.     for packet networks with a simple X window interface to allow
  10571.     interactive use.
  10572.  
  10573.  
  10574. Thanks to all who responded
  10575.  
  10576. Dave Blight
  10577. blight@ee.umanitoba.ca
  10578.  
  10579.  
  10580. Approved: parallel@hubcap.clemson.edu
  10581. Follow-up: comp.parallel
  10582. Path: bounce-back
  10583. Newsgroups: comp.sys.hp.hardware,comp.parallel,aus.general,melb.general,aus.jobs,misc.jobs.misc
  10584. From: rich@latcs1.lat.oz.au (Rich Taylor)
  10585. Subject: Disk Arrays & Disk Mirroring
  10586. Organization: Comp Sci, La Trobe Uni, Australia
  10587.  
  10588. A friend of mine is in the process of setting up an Ethernet LAN 
  10589. with HP(Hewlett Packard) Unix machines using 30 Gigs disk arrays
  10590. and disk mirroring.  He would like to hear from people who has
  10591. set up similiar configurations.  Basicially  he would to get
  10592. some idea of the issues, PROBLEMS & experiences in dealing with 
  10593. such a configuration (disk arrays & disk mirroring).  I'll be 
  10594. happy to post a summary if i get any replies at all.
  10595.  
  10596. P/S.He might even offer you a job with the company. 
  10597.  
  10598.  
  10599. Approved: parallel@hubcap.clemson.edu
  10600. Follow-up: comp.parallel
  10601. Path: bounce-back
  10602. Newsgroups: comp.parallel,comp.theory,comp.arch,aus.parallel
  10603. From: hossam@mocha.newcastle.edu.au (Hossam Elgindy)
  10604. Subject: REMINDER: Reconfigurable Architectures Workshop
  10605. Organization: Uni of Newcastle, Australia
  10606.  
  10607. *****************************************************************************
  10608. *****************************************************************************
  10609. **REMINDER  -- REMINDER  -- REMINDER  -- REMINDER  -- REMINDER  -- REMINDER**
  10610. **REMINDER  -- REMINDER  -- REMINDER  -- REMINDER  -- REMINDER  -- REMINDER**
  10611. *****************************************************************************
  10612. *****************************************************************************
  10613.  
  10614.  
  10615.          8th International Parallel Processing Symposium
  10616.  
  10617.               Reconfigurable Architectures Workshop
  10618.   (Sponsored by IEEE Technical Committee on Parallel Processing)
  10619.  
  10620. SYMPOSIUM:  The 8th annual International Parallel 
  10621. Processing Symposium (IPPS '94) will be held April 26-29, 
  10622. 1994 at Hotel Regina, Cancun, Mexico.  The symposium is 
  10623. sponsored by the IEEE Computer Society and will be held in 
  10624. cooperation with ACM SIGARCH.  IPPS '94 is a forum for 
  10625. engineers and scientists from around the world to present 
  10626. the latest research findings in all aspects of parallel processing.
  10627.  
  10628. WORKSHOP: 
  10629. The workshop on reconfigurable architectures (RAW'94) will be held on 
  10630. the first day of the Symposium (April 26).  For the purpose of this
  10631. workshop, a reconfigurable architecture "RA" consists of processors 
  10632. connected by a reconfigurable network.  The topology of the network 
  10633. outside the processors is fixed, and the internal connections between 
  10634. the I/O ports of each processor can be configured locally during 
  10635. execution of the algorithm.  Numerous algorithms have since been presented 
  10636. in the scientific literature. They have addressed problems in computer 
  10637. vision, packet routing, embedding of different topologies and fault tolerance.
  10638.  
  10639. The workshop will feature several sessions of submitted paper presentations
  10640. and proceedings will be available at the symposium and by public ftp.
  10641. Authors are invited to submit manuscripts which demonstrate original research 
  10642. in all areas of Reconfigurable Architectures, implementations, algorithms and 
  10643. applications. The topics of interest include, but are not limited to:
  10644.  
  10645.     Reconfiguration Models        Implementations and Systems
  10646.     Complexity             Sorting    and Packet Routing
  10647.     Scalability            Embedding of Fixed Topologies    
  10648.     Problem Solving Paradigms    Image Processing
  10649.     Geographic Information Systems    Graphics and Animation
  10650.     Algorithms(arithmetic/geometric/graph/numerical/randomised)
  10651.  
  10652. SUBMITTING PAPERS:  
  10653. All papers will be reviewed.  Send five (5) copies of complete  paper 
  10654. (not to exceed 15 single spaced, single sided pages) to:  
  10655.         RAW'94
  10656.         c/o Hossam ElGindy
  10657.         Department of Computer Science
  10658.         The University of Newcastle
  10659.         Callaghan, NSW 2308
  10660.         Australia
  10661.         E-mail: raw94@cs.newcastle.edu.au
  10662.  
  10663.  
  10664. IMPORTANT DATES
  10665.     Manuscripts (by postal services)     12 November 1993.
  10666.     Manuscripts (by e-mail in PostScript)   5  November 1993.
  10667.     Notification of review decisions    31 December 1993.
  10668.     Final version due             11 February 1994.
  10669.  
  10670.  
  10671. WORKSHOP CHAIR:
  10672. Hossam ElGindy, The University of Newcastle (AUSTRALIA)
  10673. E-mail: raw94@cs.newcastle.edu.au, FAX: +61 49 21 6929
  10674.  
  10675. PROGRAM COMMITTEE:
  10676.  
  10677.   Hussein Alnuweiri    University of British Columbia (Canada)
  10678.             
  10679.   Gen-Huey Chen        National Taiwan University (Taiwan)
  10680.  
  10681.   Hossam ElGindy    The University of Newcastle (Australia)
  10682.             
  10683.   Ju-wook Jang        Samsung Electronics, Co.Ltd. (Korea)
  10684.  
  10685.   Philip MacKenzie    University of Texas -- Austin (USA)
  10686.  
  10687.   Koji Nakano         Hitachi, Ltd. (Japan)
  10688.             
  10689.   Stephan Olariu    Old Dominion University (USA)
  10690.             
  10691.   Viktor K. Prasanna    Univerity of Southern California (USA)
  10692.             
  10693.   U. Ramachandran    Georgia Institute of Technology (USA)
  10694.             
  10695.   Sartaj Sahni        University of Florida (USA)
  10696.             
  10697.   Arun Somani        University of Washington (USA)
  10698.             
  10699.   R. Vaidyanathan    Louisiana State Univerity (USA)
  10700.             
  10701.  
  10702. CANCUN, MEXICO: The Yucatan peninsula with a shoreline of over 1600 
  10703. kilometers is one of Mexico's most exotic areas.  Over a thousand 
  10704. years ago the peninsula was the center of the great Mayan civilization.  
  10705. Cancun with it's powder fine sand and turquoise water is a scenic haven 
  10706. for sun lovers and archaeological buffs alike, and our Mexican hosts are 
  10707. eager to extend every hospitality for our visit to their part of the world.
  10708.  
  10709. Air travel to Cancun is available from most major U.S. cities, and U.S.
  10710. and Canadian citizens do not require passports to visit Mexico.  The
  10711. The Westin Regina Resort, Cancun (Hotel Regina) is a self-contained meeting 
  10712. facility with spacious, air-conditioned rooms, on-site restaurants, 
  10713. and all the services of a world class hotel.  Travel packages to 
  10714. various other nearby hotels (including reduced airfare, and accommodation) 
  10715. are also available from most travel agents. Cancun is a dazzling resort 
  10716. with golf, tennis, and every water sport under the sun, 
  10717. and the area offers exciting nightlife, fabulous shopping, 
  10718. and historic Mayan ruins.
  10719.  
  10720. Approved: parallel@hubcap.clemson.edu
  10721. Follow-up: comp.parallel
  10722. Path: bounce-back
  10723. Newsgroups: comp.parallel
  10724. From: schooler@apollo.hp.com (Richard Schooler)
  10725. Subject: Cray T3D Cache Coherence
  10726. Organization: HP/Apollo Massachusetts Language Lab
  10727.  
  10728.   I've just been reading the Cray T3D Architecture Overview, and I'm
  10729. wondering how cache coherence works.  The impression I get is that
  10730. there is no complete hardware support: it's up to the programmer to
  10731. use memory barriers after writes, and to specify non-caching reads.
  10732. Is that true?
  10733.  
  10734.         -- Richard
  10735.         schooler@ch.hp.com
  10736.  
  10737. Approved: parallel@hubcap.clemson.edu
  10738. Follow-up: comp.parallel
  10739. Path: bounce-back
  10740. Newsgroups: comp.parallel
  10741. From: rminnich@super.org (Ronald G Minnich)
  10742. Subject: REAL numbers on SP/1 latency
  10743. Organization: Supercomputing Research Center, Bowie, MD
  10744.  
  10745. OK, I keep hearing this 500 nsec. number for SP/1 node to node latency, 
  10746. and I can't take it any more. So could a (non-IBM-marketing) source out 
  10747. there please: 
  10748. 1) MEASURE the round-trip time, application to application, application
  10749.    to be run in user mode, language of your
  10750.    choice, on an SP/1, for two different nodes,  and
  10751. 2) report it here?
  10752.  
  10753. thanks
  10754. ron
  10755. -- 
  10756.  rminnich@super.org
  10757.  (301)-805-7451 or 7312
  10758.  
  10759. Approved: parallel@hubcap.clemson.edu
  10760. Follow-up: comp.parallel
  10761. Path: bounce-back
  10762. Newsgroups: comp.parallel
  10763. From: curtin@btgmax.zko.dec.com (Paul Curtin)
  10764. Subject:  Thinking Machines CM2 for sale or lease.
  10765. Reply-To: curtin@btgmax.zko.dec.com (Paul Curtin)
  10766. Organization: Digital Equipment Corp.
  10767.  
  10768. TO:        HIGH PERFORMANCE SYSTEMS USERS
  10769.  
  10770. FROM:        OLD COLONY GROUP LEASING, INC.
  10771.  
  10772. DATE:        SEPTEMBER 20, 1993
  10773.  
  10774. RE:        MASSIVELY PARALLEL PROCESSOR
  10775.  
  10776.  
  10777.  
  10778. Old Colony Group Leasing, Inc.  has available or sale or lease a Thinking
  10779. Machine 16,000 processor CM2 computer with a 64 bit floating point and 10
  10780. gigabyte data vault for as little as $1.00 per processor per month.  This
  10781. system is  also available  immediately at a  purchase price of $50.00 per
  10782. processor.
  10783.  
  10784. For more information regarding configuration and lease terms, please call
  10785. either myself or Joe Bonanno at (800) 447-7728.  Old Colony Group Leasing
  10786. is a woman-owned business enterprise.
  10787.  
  10788. OLD COLONY GROUP LEASING, INC.
  10789.  
  10790. Ellen F. Kennedy, President
  10791.  
  10792.  
  10793.  
  10794. Approved: parallel@hubcap.clemson.edu
  10795. Follow-up: comp.parallel
  10796. Path: bounce-back
  10797. Newsgroups: comp.parallel
  10798. From: saroff@msc.edu (Stephen Saroff MSCI/AHPCRC)
  10799. Sender: saroff@ea.msc.edu
  10800. Subject: SP-1 information
  10801.  
  10802. Does anyone have a quick overview on the new IBM MPP system?
  10803.  
  10804.  
  10805. -- Stephen Saroff: saroff@msc.edu
  10806. -- Minnesota SupercomputerCenter,Inc
  10807. -- 1200 WashingtonAve S; Minneapolis,MN 55415
  10808. -- 612/337 3423 Fax:612/337 3400
  10809.  
  10810. Approved: parallel@hubcap.clemson.edu
  10811. Follow-up: comp.parallel
  10812. Path: bounce-back
  10813. Newsgroups: comp.parallel
  10814. From: ad@egr.duke.edu (Apostolos Dollas)
  10815. Subject: RSP 94 Call for Papers/Interest
  10816. Organization: Duke University EE Dept.; Durham, NC
  10817.  
  10818. Dear colleague:             You will find below the call for papers for RSP 94,
  10819. the Fifth IEEE International Workshop on Rapid System Prototyping. 
  10820. We also want to establish a mailing list (electronic and regular) of people
  10821. interested in rapid system prototyping.  To be included in this list, 
  10822. please send e-mail to Apostolos Dollas (ad@ee.duke.edu). We will notify you 
  10823. of updates, send you the Workshop program when it is established, and send you 
  10824. the Call for Participation. We do not expect extensive mailings but rather 
  10825. to reach the researchers and practitioners in the field from industry and 
  10826. academia. Your thoughts and comments are welcome. Please pass this information 
  10827. to others who may be interested.
  10828.  
  10829.                                CALL FOR PAPERS
  10830.  
  10831.                        5th IEEE INTERNATIONAL WORKSHOP ON
  10832.                             RAPID SYSTEM PROTOTYPING
  10833.  
  10834.                                June 21-23, 1994
  10835.                        Grenoble (Grand Hotel de Paris at
  10836.                            Villard de Lans), France
  10837.  
  10838.  
  10839.           Requirements, Specifications, Integration and Prototyping of
  10840.               Hardware and Software for Computer Based Systems
  10841.  
  10842. The IEEE International Workshop on Rapid System Prototyping
  10843. presents and explores the trends in rapid prototyping of
  10844. Computer Based Systems including, but not limited to,
  10845. communications, information, and manufacturing systems.  The
  10846. fifth annual workshop will focus on improved approaches to
  10847. resolving prototyping issues and problems raised by
  10848. incomplete specifications, increased system complexity and
  10849. reduced time to market requirements for a multitude of
  10850. products.  The workshop will include a keynote presentation
  10851. and formal paper sessions with a wide range of system
  10852. prototyping topics, which include, but are not limited to
  10853. the following: 
  10854.  
  10855. * Development of system requirements
  10856. * Prototyping case studies    
  10857. * Requirements interpretation               
  10858. * Very large scale system engineering    
  10859. * Specification consistency checking      
  10860. * Hardware/software tradeoffs    
  10861. * Tools for hardware prototyping            
  10862. * System verification/validation    
  10863. * Tools for software prototyping            
  10864. * Design specification    
  10865. * The role of FPGAs in system prototyping   
  10866. * Prototype to product transition    
  10867.  
  10868. The program committee invites authors to submit five copies
  10869. of an extended summary or a full paper (preferred)
  10870. presenting original and unpublished work.  Clearly describe
  10871. the nature of the work, explain its significance, highlight
  10872. its novel features, and state its current status.  Authors
  10873. of selected papers will be requested to prepare a manuscript
  10874. for the workshop proceedings.  The official language of the
  10875. workshop is English. 
  10876.  
  10877. *  Papers due:                            January 10, 1994
  10878. *  Notification of Acceptance:            February 10, 1994       
  10879. *  Final Camera Ready Manuscript due      March 24, 1994 
  10880.  
  10881.    Submit all papers to Dr. Nick Kanopoulos, program chair  (address below).
  10882.  
  10883. The workshop will be held in the resort town of Villard de
  10884. Lans (near Grenoble) in France.  Transportation between the
  10885. workshop site and Grenoble will be provided for attendees
  10886. arriving and departing on June 20th and 23rd, respectively. 
  10887.  
  10888. Workshop Chairperson:
  10889.  
  10890. Bernard Courtois
  10891. INPG/TIMA
  10892. 46 Avenue Felix Viallet
  10893. 38031 Grenoble Cedex
  10894. France
  10895. 33-76-574-615  Fax: 33-76-473-814
  10896. courtois@archi.imag.fr
  10897.  
  10898. Program Chairperson:
  10899. Nick Kanopoulos
  10900. Center for Digital Sys. Engineering
  10901. Research Triangle Institute
  10902. 3040 Cornwallis Road
  10903. Research Triangle Park, NC  27709
  10904. (919) 541-7341  Fax:  (919) 541-6515
  10905. rsp@rti.rti.org
  10906.  
  10907. Asian Contact:
  10908. Akihiko Yamada
  10909. Tokyo Metropolitan University
  10910. Hachioji, Tokyo
  10911. Japan
  10912. +81 426 77 2748
  10913. Fax: +81 426 77 2756
  10914.  
  10915. Chairman Emeritus:
  10916. Ken Anderson
  10917.  
  10918. Program Committee:  Theo Antonakopoulos (Univ. of Patras),
  10919. John Beetem (MITRE), Warren Debany (Rome Laboratory),
  10920. Apostolos Dollas (Duke), Paul Hulina (Penn. State Univ.),
  10921. Rudy Lauwereins (Katholieke Universiteit Leuven), Stanley
  10922. Winkler (NIST), Mark Engels (Katholieke Universiteit
  10923. Leuven), Manfred Glesner (Technische Hoschschule Darmstadt),
  10924. Ahmed Amine Jerraya (INPG/TIMA), Peter Henderson (University
  10925. of Southampton) 
  10926.                                 Cosponsored by:
  10927.  
  10928.                              IEEE Computer Society
  10929.                             Technical Committees on:
  10930.  
  10931.          Design Automation  *  Simulation  *  Test Technology
  10932.  
  10933.  
  10934. Approved: parallel@hubcap.clemson.edu
  10935. Follow-up: comp.parallel
  10936. Path: bounce-back
  10937. Newsgroups: comp.parallel
  10938. From: elammari@scs.carleton.ca (M. Elammari)
  10939. Subject: Finding smallest value on Hypercubes
  10940. Organization: Carleton University
  10941.  
  10942. I am lookin for parallel algorithms for finding the smallest value
  10943. on Hypercubes.
  10944.  
  10945. Any help/references will be appreciated.
  10946.  
  10947. Thank you in advance.
  10948.  
  10949. --
  10950. M. Elammari
  10951.  
  10952. Approved: parallel@hubcap.clemson.edu
  10953. Newsgroups: comp.parallel
  10954. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  10955. Subject: Mail Problems and News Problems
  10956.  
  10957.  
  10958. For the past two weeks, Eugene Miya and I have been tracking problems
  10959. in news distribution.  At first, it appeared to be localized and just
  10960. comp.parallel. Our system people assure me that the news is clearing
  10961. Clemson properly. Once it gets outside us, there's really no way to deal
  10962. directly with tracking articles. Eugene now tells me that the problem
  10963. is not just in comp.parallel.
  10964.  
  10965. If you are experiencing difficulties, please contact your system people.
  10966. If you have posted something and it has not been seen yet, please let me
  10967. know.
  10968.  
  10969. Steve
  10970.  
  10971. =========================== MODERATOR ==============================
  10972. Steve Stevenson                            fpst@hubcap.clemson.edu
  10973. Administrative address                     steve@hubcap.clemson.edu
  10974. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  10975. Wanted: Sterbetz, P. Floating Point Computation
  10976.  
  10977.  
  10978.  
  10979. Approved: parallel@hubcap.clemson.edu
  10980. Follow-up: comp.parallel
  10981. Path: bounce-back
  10982. Newsgroups: comp.parallel
  10983. From: kumar-b@cis.ohio-state.edu (bharat kumar)
  10984. Subject: Ordering in sparse Cholesky factorization
  10985. Organization: The Ohio State University Dept. of Computer and Info. Science
  10986.  
  10987. I'm looking for papers on ordering of symmetric positive definite matrices to
  10988. minimize fill-in and maximize parallelism, and the mapping of computation to
  10989. processors. 
  10990.  
  10991. Please send email to kumar-b@cis.ohio-state.edu
  10992.  
  10993. Thanks in advance,
  10994. Bharat
  10995.  
  10996.  
  10997. Approved: parallel@hubcap.clemson.edu
  10998. Follow-up: comp.parallel
  10999. Path: bounce-back
  11000. Newsgroups: comp.parallel
  11001. From: stratton@dcs.warwick.ac.uk (Andrew Stratton)
  11002. Subject: Here is the LaTeX source for `Twelve ways to fool the masses..'
  11003. Organization: Department of Computer Science, Warwick University, England
  11004.  
  11005.   David Bailey very kindly sent me a LaTeX copy of the report `Twelve
  11006. Ways to Fool the Masses When Giving Performance Results on Parallel
  11007. Computers'.
  11008.  
  11009.   I enclose the source, with his permission, below.
  11010.  
  11011.   Thank you to every one for their help, especially David Bailey,
  11012.     Andy Stratton
  11013. ---------------------------------------------------------------------
  11014. \documentstyle[12pt,fleqn]{article}
  11015. \setlength{\oddsidemargin}{0cm}
  11016. \setlength{\textwidth}{16.2cm}
  11017. \setlength{\columnwidth}{16.2cm}
  11018. \setlength{\topmargin}{0cm}
  11019. \setlength{\textheight}{21.5cm}
  11020.  
  11021. \begin{document}
  11022.  
  11023. \vspace*{2.7cm}
  11024. \begin{large} \begin {center}
  11025. Twelve Ways to Fool the Masses When Giving \\
  11026. Performance Results on Parallel Computers \\
  11027. David H. Bailey \\
  11028. RNR Technical Report RNR-91-020 \\
  11029. June 11, 1991
  11030. \end{center} \end{large}
  11031.  
  11032. \vspace{3ex} \noindent
  11033. {\bf Abstract}
  11034.  
  11035. Many of us in the field of highly parallel scientific computing
  11036. recognize that it is often quite difficult to match the run time
  11037. performance of the best conventional supercomputers.  This humorous
  11038. article outlines twelve ways commonly used in scientific papers and
  11039. presentations to artificially boost performance rates and to present
  11040. these results in the ``best possible light'' compared to other
  11041. systems.
  11042.  
  11043. \vfill{
  11044. The author is with the Numerical Aerodynamic Simulation (NAS) Systems
  11045. Division at NASA Ames Research Center, Moffett Field, CA 94035.}
  11046.  
  11047. \newpage
  11048.  
  11049. Many of us in the field of highly parallel scientific computing
  11050. recognize that it is often quite difficult to match the run time
  11051. performance of the best conventional supercomputers.  But since lay
  11052. persons usually don't appreciate these difficulties and therefore
  11053. don't understand when we quote mediocre performance results, it is
  11054. often necessary for us to adopt some advanced techniques in order to
  11055. deflect attention from possibly unfavorable facts.  Here are some of
  11056. the most effective methods, as observed from recent scientific papers
  11057. and technical presentations:
  11058.  
  11059. \vspace{2ex} \noindent
  11060. {\bf 1.  Quote only 32-bit performance results, not 64-bit results.}
  11061.  
  11062. We all know that it is hard to obtain impressive performance using
  11063. 64-bit floating point arithmetic.  Some research systems do not even
  11064. have 64-bit hardware.  Thus always quote 32-bit results, and avoid
  11065. mentioning this fact if at all possible.  Better still, compare your
  11066. 32-bit results with 64-bit results on other systems.  32-bit
  11067. arithmetic may or may not be appropriate for your application, but the
  11068. audience doesn't need to be bothered with such details.
  11069.  
  11070. \vspace{2ex} \noindent
  11071. {\bf 2.  Present performance figures for an inner kernel, and then
  11072. represent these figures as the performance of the entire application.}
  11073.  
  11074. It is quite difficult to obtain high performance on a complete
  11075. large-scale scientific application, timed from beginning of execution
  11076. through completion.  There is often a great deal of data movement and
  11077. initialization that depresses overall performance rates.  A good
  11078. solution to this dilemma is to present results for an inner kernel of
  11079. an application, which can be souped up with artificial tricks.  Then
  11080. imply in your presentation that these rates are equivalent to the
  11081. overall performance of the entire application.
  11082.  
  11083. \vspace{2ex} \noindent
  11084. {\bf 3.  Quietly employ assembly code and other low-level language
  11085. constructs.}
  11086.  
  11087. It is often hard to obtain good performance from straightforward
  11088. Fortran or C code that employs the usual parallel programming
  11089. constructs, due to compiler weaknesses on many highly parallel
  11090. computer systems.  Thus you should feel free to employ assembly-coded
  11091. computation kernels, customized communication routines and other
  11092. low-level code in your parallel implementation.  Don't mention such
  11093. usage, though, since it might alarm the audience to learn that
  11094. assembly-level coding is necessary to obtain respectable performance.
  11095.  
  11096. \vspace{2ex} \noindent
  11097. {\bf 4.  Scale up the problem size with the number of processors, but
  11098. omit any mention of this fact.}
  11099.  
  11100. Graphs of performance rates versus the number of processors have a
  11101. nasty habit of trailing off.  This problem can easily be remedied by
  11102. plotting the performance rates for problems whose sizes scale up with
  11103. the number of processors.  The important point is to omit any mention
  11104. of this scaling in your plots and tables.  Clearly disclosing this
  11105. fact might raise questions about the efficiency of your
  11106. implementation.
  11107.  
  11108. \vspace{2ex} \noindent
  11109. {\bf 5.  Quote performance results projected to a full system.}
  11110.  
  11111. Few labs can afford a full-scale parallel computer --- such systems
  11112. cost millions of dollars.  Unfortunately, the performance of a code on
  11113. a scaled down system is often not very impressive.  There is a
  11114. straightforward solution to this dilemma --- project your performance
  11115. results linearly to a full system, and quote the projected results,
  11116. without justifying the linear scaling.  Be very careful not to mention
  11117. this projection, however, since it could seriously undermine your
  11118. performance claims for the audience to realize that you did not
  11119. actually obtain your results on real full-scale hardware.
  11120.  
  11121. \vspace{2ex} \noindent
  11122. {\bf 6.  Compare your results against scalar, unoptimized code on
  11123. Crays.}
  11124.  
  11125. It really impresses the audience when you can state that your code
  11126. runs several times faster than a Cray, currently the world's dominant
  11127. supercomputer.  Unfortunately, with a little tuning many applications
  11128. run quite fast on Crays.  Therefore you must be careful not to do any
  11129. tuning on the Cray code.  Do not insert vectorization directives, and
  11130. if you find any, remove them.  In extreme cases it may be necessary to
  11131. disable all vectorization with a command line flag.  Also, Crays often
  11132. run much slower with bank conflicts, so be sure that your Cray code
  11133. accesses data with large, power-of-two strides whenever possible.  It
  11134. is also important to avoid multitasking and autotasking on Crays ---
  11135. imply in your paper that the one processor Cray performance rates you
  11136. are comparing against represent the full potential of a \$25 million
  11137. Cray system.
  11138.  
  11139. \vspace{2ex} \noindent
  11140. {\bf 7.  When direct run time comparisons are required, compare with
  11141. an old code on an obsolete system.}
  11142.  
  11143. Direct run time comparisons can be quite embarrassing, especially if
  11144. your parallel code runs significantly slower than an implementation on
  11145. a conventional system.  If you are challenged to provide such figures,
  11146. compare your results with the performance of an obsolete code running
  11147. on obsolete hardware with an obsolete compiler.  For example, you can
  11148. state that your parallel performance is ``100 times faster than a VAX
  11149. 11/780''.  A related technique is to compare your results with results
  11150. on another less capable parallel system or minisupercomputer.  Keep in
  11151. mind the bumper sticker ``We may be slow, but we're ahead of you.''
  11152.  
  11153. \vspace{2ex} \noindent
  11154. {\bf 8.  If MFLOPS rates must be quoted, base the operation count on
  11155. the parallel implementation, not on the best sequential
  11156. implementation.}
  11157.  
  11158. We know that MFLOPS rates of a parallel codes are often not very
  11159. impressive.  Fortunately, there are some tricks that can make these
  11160. figures more respectable.  The most effective scheme is to compute the
  11161. operation count based on an inflated parallel implementation.
  11162. Parallel implementations often perform far more floating point
  11163. operations than the best sequential implementation.  Often millions of
  11164. operations are masked out or merely repeated in each processor.
  11165. Millions more can be included simply by inserting a few dummy loops
  11166. that do nothing.  Including these operations in the count will greatly
  11167. increase the resulting MFLOPS rate and make your code look like a real
  11168. winner.
  11169.  
  11170. \vspace{2ex} \noindent
  11171. {\bf 9.  Quote performance in terms of processor utilization, parallel
  11172. speedups or MFLOPS per dollar.}
  11173.  
  11174. As mentioned above, run time or even MFLOPS comparisons of codes on
  11175. parallel systems with equivalent codes on conventional supercomputers
  11176. are often not favorable.  Thus whenever possible, use other
  11177. performance measures.  One of the best is ``processor utilization''
  11178. figures.  It sounds great when you can claim that all processors are
  11179. busy nearly 100\% of the time, even if what they are actually busy
  11180. with is synchronization and communication overhead.  Another useful
  11181. statistic is ``parallel speedup'' --- you can claim ``fully linear''
  11182. speedup simply by making sure that the single processor version runs
  11183. sufficiently slowly.  For example, make sure that the single processor
  11184. version includes synchronization and communication overhead, even
  11185. though this code is not necessary when running on only one processor.
  11186. A third statistic that many in the field have found useful is ``MFLOPS
  11187. per dollar''.  Be sure not to use ``sustained MFLOPS per dollar'',
  11188. i.e. actual delivered computational throughput per dollar, since these
  11189. figures are often not favorable to new computer systems.
  11190.  
  11191. \vspace{2ex} \noindent
  11192. {\bf 10.  Mutilate the algorithm used in the parallel implementation
  11193. to match the architecture.}
  11194.  
  11195. Everyone is aware that algorithmic changes are often necessary when we
  11196. port applications to parallel computers.  Thus in your parallel
  11197. implementation, it is essential that you select algorithms which
  11198. exhibit high MFLOPS performance rates, without regard to fundamental
  11199. efficiency.  Unfortunately, such algorithmic changes often result in a
  11200. code that requires far more time to complete the solution.  For
  11201. example, explicit linear system solvers for partial differential
  11202. equation applications typically run at rather high MFLOPS rates on
  11203. parallel computers, although they in many cases converge much slower
  11204. than implicit or multigrid methods.  For this reason you must be
  11205. careful to downplay your changes to the algorithm, because otherwise
  11206. the audience might wonder why you employed such an inappropriate
  11207. solution technique.
  11208.  
  11209. \vspace{2ex} \noindent
  11210. {\bf 11.  Measure parallel run times on a dedicated system, but
  11211. measure conventional run times in a busy environment.}
  11212.  
  11213. There are a number of ways to further boost the performance of your
  11214. parallel code relative to the conventional code.  One way is to make
  11215. many runs on both systems, and then publish the best time for the
  11216. parallel system and the worst time for the conventional system.
  11217. Another is to time your parallel computer code on a dedicated system
  11218. and time your conventional code in a normal loaded environment.  After
  11219. all, your conventional supercomputer is very busy, and it is hard to
  11220. arrange dedicated time.  If anyone in the audience asks why the
  11221. parallel system is freely available for dedicated runs, but the
  11222. conventional system isn't, change the subject.
  11223.  
  11224. \vspace{2ex} \noindent
  11225. {\bf 12.  If all else fails, show pretty pictures and animated videos,
  11226. and don't talk about performance.}
  11227.  
  11228. It sometimes happens that the audience starts to ask all sorts of
  11229. embarrassing questions.  These people simply have no respect for the
  11230. authorities of our field.  If you are so unfortunate as to be the
  11231. object of such disrespect, there is always a way out --- simply
  11232. conclude your technical presentation and roll the videotape.
  11233. Audiences love razzle-dazzle color graphics, and this material often
  11234. helps deflect attention from the substantive technical issues.
  11235.  
  11236. \vspace{3ex}
  11237. \noindent {\bf Acknowledgments}
  11238.  
  11239. The author wishes to acknowledge helpful contributions and comments by
  11240. the following persons: R. Bailey, E. Barszcz, R. Fatoohi, P.
  11241. Frederickson, J. McGraw, J. Riganati, R. Schreiber, H. Simon, V.
  11242. Venkatakrishnan, S. Weeratunga, J. Winget and M. Zosel.
  11243.  
  11244. \end{document}
  11245.  
  11246.  
  11247.  
  11248. Approved: parallel@hubcap.clemson.edu
  11249. Follow-up: comp.parallel
  11250. Path: bounce-back
  11251. Newsgroups: comp.parallel
  11252. From: dbader@eng.umd.edu (David Bader)
  11253. Subject: The Future of Parallel Computing
  11254. Organization: Professional Student, University of Maryland, College Park
  11255. References: <1993Oct14.131912.9126@hubcap.clemson.edu>
  11256.  
  11257. In article <1993Oct14.131912.9126@hubcap.clemson.edu> Peter Su <psu+@cs.cmu.edu>  writes:
  11258.  
  11259. >Or, do I, for the purposes of benchmarking, have to regard the
  11260. >vendor's brain-dead compiler as part of the system.  Aren't we trying
  11261. >to figure out how good the *hardware* is, not the hardware+compiler?
  11262.  
  11263.    This brings up an interested question about the direction that the
  11264. field of parallel computing is headed towards.
  11265.  
  11266.    That is, is the hardware growing too fast and neglecting the
  11267. software and algorithmic concerns?
  11268.  
  11269.    When we write an algorithm in a sequential programming language
  11270. such as ANSI C or Fortran 77, our code is portable to all "similar"
  11271. machines.  The compiler has the job of converting the high-level
  11272. representation into a machine code which will run as efficiently as
  11273. possible on the underlying hardware, whether it is a RISC or CISC
  11274. processor, for example.  Also, as hardware is upgraded, the
  11275. algorithmic representations do not need to be rewritten.  Let's face
  11276. it, after we create a large application, we do not want to have to
  11277. rewrite it every time we get the "latest" machine, or even the next
  11278. generation of our current series of machine.
  11279.  
  11280.    Is the same true for the emergence of parallel computing?  In my
  11281. opinion, no.  We have not ground out a "standard" representation for
  11282. the model of parallel computing.  We have not put enough effort into
  11283. the theory of parallel algorithmics.  Throwing faster hardware at us
  11284. will not solve the problem. Even if the benchmark time for a given
  11285. application is cut in half, what happens as we try to increase the
  11286. problem size by a factor of K ? The compiler then must have the task
  11287. of decomposing the algorithm onto the underlying hardware.  It is just
  11288. wrong to require the programmer to have a detailed knowledge of the
  11289. hardware, data layout, and compiler tricks just to get anywhere near
  11290. "benchmarked" performance rates.
  11291.  
  11292.    We are now in an age when the high performance machines have
  11293. various data network topologies, i.e. meshes, torii, linear arrays,
  11294. vector processors, hypercubes, fat-trees, switching networks, etc..
  11295. etc.. These parallel machines might all have sexy architectures, but
  11296. we are headed in the wrong direction if we don't take a step back and
  11297. look at the future of our work.  We shouldn't have to rewrite our
  11298. algorithms from scratch each time our vendor sells us the latest
  11299. hardware with amazing benchmarks.  Benchmarks should also be
  11300. attainable from STANDARD compiler options.  We should NOT have to
  11301. streamline routines in assembly language, give data layout directives,
  11302. nor understand the complexities of the hardware and/or data network.
  11303.  
  11304.   Please let me know what you think,
  11305.  
  11306. Thanks,
  11307.  david
  11308.  
  11309. David A. Bader 
  11310. Electrical Engineering Department
  11311. A.V. Williams Building 
  11312. University of Maryland
  11313. College Park, MD 20742
  11314. 301-405-6755   
  11315.  
  11316. Internet: dbader@eng.umd.edu
  11317.  
  11318.  
  11319.  
  11320. Approved: parallel@hubcap.clemson.edu
  11321. Follow-up: comp.parallel
  11322. Path: bounce-back
  11323. Newsgroups: comp.parallel
  11324. From: O.Naim@ecs.soton.ac.uk (Oscar Naim)
  11325. Subject: Are there any nCUBE/3200?
  11326. Organization: Electronics and Computer Science, University of Southampton
  11327.  
  11328. Hi all,
  11329.  
  11330. Does anybody know if the nCUBE/3200 model exists? I would appreciate very
  11331. much any information about the models availables from this company. 
  11332.  
  11333. Thanks in advance!
  11334. Oscar.
  11335.  
  11336. Approved: parallel@hubcap.clemson.edu
  11337. Follow-up: comp.parallel
  11338. Path: bounce-back
  11339. Newsgroups: comp.parallel
  11340. From: fsang@kira.lerc.nasa.gov (Angela Quealy)
  11341. Subject: DQS users?
  11342. Organization: NASA Lewis Research Center [Cleveland, Ohio]
  11343.  
  11344. We recently acquired DQS for use at our site, and we are trying to come 
  11345. up with a policy for its use on our dedicated cluster of 32 IBM RS6000s.  
  11346. Our users will submit a variety of parallel and serial jobs to this 
  11347. test-bed environment, including test/debug runs, benchmark runs, and 
  11348. production jobs which could run for a full month or more.  We are using
  11349. both the APPL and PVM message passing libraries.
  11350.  
  11351. I was wondering what other sites are using DQS, what your experience
  11352. has been so far, and what kind of queue configuration/policy you are
  11353. using.  Also, in what kind of environment are you running DQS?  (a dedicated
  11354. cluster, or a loose cluster of individually-owned workstations?)
  11355.  
  11356.  
  11357. Angela Quealy
  11358. quealy@lerc.nasa.gov
  11359.  
  11360.  
  11361. -- 
  11362. ***********************************************************************
  11363. *  Angela Quealy                        quealy@lerc.nasa.gov          *
  11364. *  Sverdrup Technology, Inc.            (216) 977-1297                *
  11365. *  NASA Lewis Research Center Group                                   *
  11366. ***********************************************************************
  11367.  
  11368. Approved: parallel@hubcap.clemson.edu
  11369. Follow-up: comp.parallel
  11370. Path: bounce-back
  11371. Newsgroups: comp.parallel
  11372. From: hbchen@cse.uta.edu (Hsing B Chen)
  11373. Subject: CFP, 1993 IEEE 5th Sym. on Parallel and Distributed Processing 
  11374. Organization: Computer Science Engineering at the University of Texas at Arlington
  11375.  
  11376. =====================================================================
  11377.  
  11378.     Call for participation  IEEE 5th SPDP, 1993
  11379.              Dallas, Texas   
  11380.  
  11381. =====================================================================
  11382.  
  11383.                FIFTH IEEE SYMPOSIUM ON
  11384.          PARALLEL AND DISTRIBUTED PROCESSING
  11385.  
  11386. Sponsors: IEEE-Computer Society and IEEE-CS-Dallas Chapter
  11387.  
  11388.  Omni Mandalay Hotel, Irving, Texas - December 1-4, 1993
  11389.  
  11390. This symposium provides a forum for the presentation and exchange of
  11391. current work on a wide variety of topics in parallel and distributed
  11392. processing including: 
  11393.  
  11394. Computer Architecture            Neural Networks
  11395. Artificial Intelligence            Simulation and Modeling 
  11396. Programming Languages            Interconnection Networks
  11397. Parallel Algorithms            Distributed Computing
  11398. Operating Systems            Scheduling        
  11399. VLSI Systems Design            Parallel Applications
  11400. Database and Knowledge-base Systems
  11401.  
  11402. The technical program will be held on December 1-3, 1993 and the 
  11403. tutorials will be held on December 4, 1993.
  11404.  
  11405. Tutorials:
  11406.  
  11407. Full-day Tutorials (December 4: 9:00 am - 5:30 pm):
  11408. T1:  Roles of Optics in Parallel Computing and High-Speed
  11409.     Communications, Ahmed Louri, Univ. of Arizona. 
  11410. T2:  Functional Programming, Patrick Miller and John Feo, 
  11411.     Lawrence Livermore National Laboratory.
  11412.  
  11413. Half-day Tutorials (December 4):
  11414. T3: (9:00 am - 12:30 pm): Instruction Scheduling, Barbara Simons 
  11415.     and Vivek Sarkar, IBM Corp.
  11416. T4: (2:00 pm - 5:30 pm): Software Systems and Tools for 
  11417.     Distributed Programming, Anand Tripathi, University of
  11418.     Minnesota. 
  11419.  
  11420. Hotel Reservations:
  11421.  
  11422. Please place your reservations directly with Omni Mandalay Hotel 
  11423. at Las Colinas, 221 East Las Colinas Blvd., Irving, Texas 75039, 
  11424. Tel: (214) 556-0800, Or (800) 843-6664.  You must mention that 
  11425. you are attending SPDP in order to receive the special symposium 
  11426. rate of $94/night for a single or a double room.  Please check with 
  11427. the reservations desk for the applicability of other special rates, 
  11428. such as those available to AAA members.  Reservations should be 
  11429. made before November 16, 1993.  After this date, reservations are 
  11430. subject to space availability.
  11431.  
  11432. Directions:
  11433.  
  11434. Omni Mandalay Hotel, the conference site, is located in the Las 
  11435. Colinas development area in the city of Irving (a suburb of Dallas).  
  11436. The hotel is about 10 minutes from the Dallas/Fort Worth (DFW)
  11437. International Airport. 
  11438.  
  11439. By Car: Take DFW Int'l Airport north exit.  Take Highway 114 
  11440. East towards Dallas, go approximately 8 miles to OConnor Road 
  11441. Exit.  Turn left, go two blocks, turn right on Las Colinas Blvd.
  11442. The hotel will be 200 yards on the left.
  11443.  
  11444. Shuttle Service:  Super Shuttle provides van service from DFW 
  11445. Int'l Airport to the Omni Mandalay for $8.50 per person each way.  
  11446. For more information and reservations, call 817-329-2002.
  11447.  
  11448. Weather:  Dallas weather in early December ranges from low 40's 
  11449. to high 60's Fahrenheit.
  11450.  
  11451. ++++++++++++++++++++++++++++++++                     N
  11452. City Irving and City Las Colinas                    W+E
  11453. ++++++++++++++++++++++++++++++++                     S
  11454.                            O 
  11455.      ----------------------O--------------    
  11456.      |  (IRVING City)      O             |
  11457. ================Highway 114=========     |
  11458.      |                   __O_____   \    |       Dallas City
  11459.      |  D/FW             | O    |    \   |
  11460.      |  Airport          | O (*)|     \  |
  11461.      |                   | O  LC|      \ | 
  11462.      |                   --O-----    _  \|
  11463.      |                     O        (B)  \ 
  11464.      |                     O         -   |\
  11465. ===========================O================Highway 183==
  11466.      |                     O             |               \
  11467.      |                     O             |                \
  11468.      |                     O             |                 \
  11469.      |                     O             | 
  11470.      |                     O             |
  11471.      ------------------------------------
  11472.                            O
  11473.  Legend-
  11474.  LC: City Las Colinas
  11475.  *:  Omni Mandalay Hotel (SPDP location)
  11476.  B:  Dallas Cowboys Football Stadium (Texas Stadium) 
  11477.  O:  O'Connor Rd.
  11478.  
  11479. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
  11480. PLEASE SEND REGISTRATION FORM AND PAYMENT (payable to SPDP) TO:
  11481. Dr. Behrooz Shirazi, University of Texas at Arlington, Dept. of
  11482. Computer Science & Engineering, 416 Yates, Room 300, Arlington, TX
  11483. 76019, Tel: (817) 273-3605, Fax: (817)273-3784, E-mail:
  11484. shirazi@cse.uta.edu. 
  11485.  
  11486. The symposium registration includes the symposium proceedings, 
  11487. banquet, and luncheon.  Student registration does not include the 
  11488. symposium proceedings or the luncheon.
  11489.  
  11490. (Advance Registration:  Before 11/19/93.)
  11491.  
  11492.             IEEE Members    Non-Members    Students
  11493. Advance Registration:
  11494. Symposium:        US$260        US$325        US$100
  11495. Full-day Tutorial:    US$220        US$275        US$220
  11496. Half-day Tutorial:    US$110        US$140        US$110
  11497.  
  11498. On-site Registration
  11499. Symposium:        US$310        US$385        US$120
  11500. Full-day Tutorial:    US$265        US$330        US$265
  11501. Half-day Tutorial:    US$135        US$165        US$135
  11502.  
  11503. IEEE Member:____      Non-Member:____     Student:____    
  11504. IEEE/Student No.:_______________________
  11505.  
  11506. Symposium:    $_______            
  11507. Tutorial:       $_______, Specify choice of tutorial(s): T____
  11508. Total:       $_______            
  11509.  
  11510. _____Check enclosed, USA BANKS ONLY (payable to SPDP)
  11511. ____Credit Card (VISA or Master Card ONLY)
  11512. VISA___ or Master Card___
  11513. Credit Card No.:____________________________________
  11514. Expiration Date:____________  
  11515. Signature:_____________________________
  11516.  
  11517. Last Name:_____________________________ 
  11518.  
  11519. First Name:________________________ Middle Initial:______
  11520.  
  11521. Organization: __________________________________________
  11522.  
  11523. Address:  _____________________________________________
  11524.     _______________________________________________
  11525.  
  11526. City, State,Zip/Country:__________________________________
  11527.  
  11528. Phone: ___________________,  Fax: ____________________
  11529.  
  11530. E-mail:_______________________________
  11531.  
  11532. =======================================================================
  11533.  
  11534.                     Technical Program
  11535.    Fifth IEEE Symposium on Parallel and Distributed Processing
  11536.  Sponsors: IEEE-Computer Society and IEEE-CS-Dallas Chapter
  11537.              Omni Mandalay Hotel, Irving, Texas
  11538.                     December 1-4, 1993
  11539.  
  11540. Note:    L: 30-minute Presentation
  11541.     S: 15-minute Presentation
  11542.  
  11543. Wednesday, December 1, 1993
  11544.  
  11545. 8:30-9:30 am: On-site Registration - Conference material available 
  11546. at the Registration Desk
  11547. 9:30-10:00 am: Opening and Awards Session (Mandalay West)
  11548. 10:00-10:30 am: Break
  11549.  
  11550.         10:30-12:00 noon
  11551. Session A-1: Applications & Experimental Results I (Mandalay 
  11552. West)
  11553. Chair: Simin Pakzad (Penn State University)
  11554. L:  Total Exchange on a Reconfigurable Parallel Architecture - by 
  11555. Yuh-Dauh Lyuu, Eugen Schenfeld
  11556. L:  Experimental Evaluation of Performance and Scalability of a 
  11557. Multiprogrammed Shared-Memory Multiprocessor - by Chitra 
  11558. Natarajan, Ravi Iyer
  11559. S:  Parallel Bidirectional A* Search on a Symmetry Multiprocessor 
  11560. - by Andrew Sohn
  11561. S:  Characterizing Execution Behavior of Application Programs on 
  11562. Network-based Shared-memory Mutiprocessors - by Xiaodong 
  11563. Zhang, Keqiang He, Elisa W. Chan
  11564.  
  11565. Session B-1: Architecture I (Martaban)
  11566. Chair: S. Lakshmivarahan (Univ. of Oklahoma)
  11567. L: The Meerkat Multicomputer - by Robert Bedichek, Curtis 
  11568. Brown
  11569. L: Correctness of a Directory-Based Cache Coherence Protocol:  
  11570. Early Experience - by Fong Pong, Michel Dubois
  11571. S: Cache Design for an Explicit Token Store Data Flow 
  11572. Architecture - by P. Shanmugam, Shirish Andhare, Krishna Kavi, 
  11573. Behrooz Shirazi
  11574. S: Architectural Support for Block Transfers in a Shared Memory 
  11575. Multiprocessor - by Steven J. E. Wilton, Zvonko G. Vranesic
  11576.  
  11577. Session C-1: Wormhole Routing (Rangoon)
  11578. Chair: Robert Cypher (IBM Almaden)
  11579. L: Universal Wormhole Routing - by R. Greenberg and H. C. Oh
  11580. L: A New Theory of Deadlock-free Adaptive Multicast Routing in 
  11581. Wormhole Networks - by J. Duato
  11582. L: Adaptive Wormhole Routing in Hypercube Multicomputers - by 
  11583. X. Lin, A-H. Esfahanian, P.K. McKinley, A. Burago
  11584.  
  11585. 12:00 - 1:30 pm: LUNCH
  11586.  
  11587.         1:30 - 3:00 pm
  11588. Session A-2: Storage Management (Mandalay West)
  11589. Chair: Margaret Eich (SMU)
  11590. L: Parallel Dynamic Storage Allocation Algorithms - by Arun 
  11591. Iyengar
  11592. L: Storage Schemes for Parallel Memory Systems: An Approach 
  11593. Based on Circulant Matrices - by Cengiz Erbas, Murat M. Tanik, 
  11594. V. S. S. Nair
  11595. S: Parallel Garbage Collection and Graph Reducer - by Wen-Yan 
  11596. Kuo, Sy-Yen Kuo
  11597.  
  11598. Session B-2: Multithreading (Martaban)
  11599. Chair: Krishna Kavi (NSF)
  11600. L: An Evaluation of Software Multithreading in a Conventional 
  11601. Distributed Memory Multiprocessor - by Matthew Haines, Wim 
  11602. Bohm
  11603. L: Analysis of Multithreaded Multiprocessors with Distributed 
  11604. Shared Memory - by Shashank S. Nemawarkar, R. Govindarajan, 
  11605. Guang R. Gao, Vinod K. Agarwal
  11606. S: RICA:  Reduced Interprocessor Communication Architecture - 
  11607. by Shuichi Sakai, Y. Kodama, M. Sato, A. Shaw, et al.
  11608.  
  11609. Session C-2: Applications I (Rangoon)
  11610. Chair: Phil Gibbons (ATT Bell Laboratories)
  11611. L: Solving Markov Chains Using Bounded Aggregation on a 
  11612. Massively Parallel Processor - by R.B. Mattingly
  11613. L: Direct and Iterative Parallel Methods for Boundary Value 
  11614. Problems - by I. Gladwell, G.Kraut
  11615. L: Efficient Parallel Sibling Finding for Quadtree Data Structure - 
  11616. by D. Doctor and I. Sudborough
  11617.  
  11618. 3:00 - 3:30 pm: BREAK
  11619.  
  11620.         3:30 - 5:00 pm
  11621. Session A-3: Interconnection Networks/ Routing  I (Mandalay 
  11622. West)
  11623. Chair: Nian-Feng Tzeng (USL)
  11624. L: Analysis of Interconnection Networks Based on Simple Cayley 
  11625. Coset Graphs - by Jen-Peng Huang, S. Lakshmivarahan, S. K. 
  11626. Dhall
  11627. L:  An Efficient Routing Scheme for Scalable Hierarchical 
  11628. Networks - by Hyunmin Park, Dharma P. Agrawal
  11629. S:  Performance Evaluation of Idealized Adaptive Routing on k-ary 
  11630. n-cubes - by A. Lagman, W. A. Najjar, S. Sur, P. Srimani
  11631. S:  The B&E Model for Adoptable Wormhole Routing - by 
  11632. Xiaowei Shen, Y. S. Cheung
  11633.  
  11634. Session B-3: Performance Evaluation I (Martaban)
  11635. Chair: Diane Cook (UT-Arlington)
  11636. L:  Comparative Performance Analysis and Evaluation of Hot Spots 
  11637. on MIN-Based and HR-Based Shared-Memory Architectures - by 
  11638. Xiaodong Zhang, Yong Yan, Robert Castaneda
  11639. L:  Application of Parallel Disks for Efficient Handling of Object-
  11640. Oriented Databases - by Y. C. Chehadeh, A. R. Hurson, L. L. 
  11641. Miller, B. N. Jamoussi
  11642. S:  The Parallel State Processor Model - by I. Gottlieb, L. Biran
  11643.  
  11644. Session C-3: Geometric Algorithms (Rangoon)
  11645. Chair: Cynthia Phillips (Sandia Nat'l Lab)
  11646. L: Parallel Algorithms for Geometric Problems on Networks of 
  11647. Processors - by J. Tsay
  11648. L: Optimal Parallel Hypercube Algorithms for Polygon Problems - 
  11649. by M. Atallah, D. Chen
  11650. L: A Parallel Euclidean Distance Transformation Algorithm - by H. 
  11651. Embrechts, D. Roose
  11652.  
  11653. 5:00 - 6:00 pm: BREAK
  11654.  
  11655. 6:00 - 9:00 pm: CONFERENCE RECEPTION (Hors d'oeuvres 
  11656. and Cash Bar)
  11657.  
  11658. Thursday, December 2, 1993
  11659.  
  11660.         8:30 - 10:00 am
  11661. Session A-4: Distributed Systems I (Mandalay West)
  11662. Chair: Ray Liuzzi (Air Force Rome Labs)
  11663. L: An Efficient and Reliable Multicast Algorithm - by Rosario 
  11664. Aiello, Elena Pagani, Gian Paolo Rossi
  11665. L: An Efficient Load Balancing Algorithm in Distributed 
  11666. Computing Systems - by Jea-Cheoul Ryou, Jie-Yong Juang
  11667. S: Assertions about Past and Future: Communication in a High 
  11668. Performance Distributed System Highways- by Mohan Ahuja
  11669. S: Protocol Refinement for Maintaining Replicated Data in 
  11670. Distributed Systems - by D. Shou, Sheng-De Wang
  11671.  
  11672. Session B-4: Performance Evaluation II (Martaban)
  11673. Chair: Hee Yong Youn (UT-Arlington)
  11674. L: A Methodology for the Performance Prediction of Massively 
  11675. Parallel Applications - by Daniel Menasce, Sam H. Noh, Satish K. 
  11676. Tripathi
  11677. L: Determining External Contention Delay Due to Job Interactions 
  11678. in a 2-D Mesh Wormhole Routed Multicomputer - by Dugki Min, 
  11679. Matt W. Mutka
  11680. L: Simulated Behaviour of Large Scale SCI Rings and Tori - by H. 
  11681. Cha, R. Daniel Jr.
  11682.  
  11683. Session C-4: Mesh Computations (Rangoon)
  11684. Chair: Abhiram Ranade (UC- Berkeley)
  11685. L: Becoming a Better Host Through Origami: a Mesh is More Than 
  11686. Rows and Columns - by D. Greenberg, J. Park, E. Schwabe
  11687. L: Deterministic Permutation Routing on Meshes - by B. Chlebus, 
  11688. M. Kaufmann, J. Sibeyn
  11689. S: Dilation-5 Embedding of 3-Dimensional Grids into Hypercubes - 
  11690. by M. Chan, F. Chin, C. N. Chu, W. K. Mak
  11691.  
  11692. 10:00 - 10:30 am: BREAK
  11693.  
  11694.         10:30 - 12:00 noon
  11695. Session A-5: Applications and Experimental Results II (Mandalay 
  11696. West)
  11697. Chair: Doug Matzke (Texas Instruments)
  11698. L: Scalable Duplicate Pruning Strategies for Parallel A* Graph 
  11699. Search - by Nihar R. Mahapatra, Shantanu Dutt
  11700. L: A Parallel Implementation of a Hidden Markov Model with 
  11701. Duration Modeling for Speech Recognition - by C.D. Mitchell, 
  11702. R.A. Helzerman, L.H. Jamieson, M.P. Harper
  11703. S: Performance Comparison of the CM-5 and Intel Touchstone 
  11704. Delta for Data Parallel Operations - by Zeki Bozkus, Sanjay Ranka, 
  11705. Geoffrey Fox, Alok Choudhary
  11706.  
  11707. Session B-5: Interconnection Networks/Routing II (Martaban)
  11708. Chair: Laxmi Bhuyan (Texas A&M Univ.)
  11709. L: Analysis of Link Traffic in Incomplete Hypercubes - by Nian-
  11710. Feng Tzeng, Harish Kumar
  11711. L: Multicast Bitonic Network - by Majed Z. Al-Hajery, Kenneth E. 
  11712. Batcher
  11713. L: Valved Routing:  Implementing Traffic Control in Misrouting on 
  11714. Interconnection Network - by Wei-Kuo Liao, Chung-Ta King
  11715.  
  11716. Session C-5: Message-Passing Systems (Rangoon)
  11717. Chair: Sandeep Bhatt (Bellcore)
  11718. L: Computing Global Combine Operations in the Multi-Port Postal 
  11719. Model - by A. Bar-Noy, J. Bruck, C.T. Ho, S. Kipnis, B. Schieber
  11720. S: Broadcasting Multiple Messages in Simultaneous Send/Receive 
  11721. Systems  - by A. Bar-Noy, S. Kipnis
  11722. S: Fault Tolerant Broadcasting in SIMD Hypercubes - by Y. Chang
  11723. S: Notes on Maekawa's O(sqrt N) Distributed Mutual Exclusion 
  11724. Algorithm - by Ye-In Chang
  11725.  
  11726. 12:00 - 2:00 pm: CONFERENCE LUNCHEON and KEYNOTE 
  11727. SPEECH (Salon D)
  11728. Stephen L. Squires (Advanced Research Projects Agency)
  11729. High Performance Computing and National Scale Information 
  11730. Enterprises
  11731.  
  11732.         2:00 - 3:30 pm
  11733. Session A-6: Partitioning and Mapping I (Mandalay West)
  11734. Chair: Jeff Marquis (E-Systems)
  11735. L: Partitioning and Mapping a Class of Parallel Multiprocessor 
  11736. Simulation Models - by H. Sellami, S. Yalamanchili
  11737. L: An Efficient Mapping of Feed-Forward with Back Propagation 
  11738. ANNs on Hypercubes - by Q. M. Malluhi, M. A. Bayoumi, T. R. N. 
  11739. Rao
  11740. S: Data Partitioning for Networked Parallel Processing - by Phyllis 
  11741. E. Crandall, Michael J. Quinn
  11742.  
  11743. Session B-6: Architecture II (Martaban)
  11744. Chair: Dharma P. Agrawal (North Carolina State University)
  11745. L: Designing a Coprocessor for Recurrent Computations - by K. 
  11746. Ganapathy, B. Wah
  11747. L: Analysis of Control Parallelism in SIMD Instruction Streams - by 
  11748. J. Allen, V. Garg, D. E. Schimmel
  11749. L: Representation of Coherency Classes for Parallel Systems - by J. 
  11750. A. Keane, W. Hussak
  11751.  
  11752. Session C-6: Applications II (Rangoon)
  11753. Chair: Hal Sudborough (UT-Dallas)
  11754. L: A Parallel Lattice Basis Reduction for Mesh-Connected 
  11755. Processor Arrays and Parallel Complexity - by Ch. Heckler, L. 
  11756. Thiele
  11757. L: Parallel Network Dual Simplex Method on a Shared Memory 
  11758. Multiprocessor - by K. Thulasiraman, R.P. Chalasani, M.A. 
  11759. Comeau
  11760. S: Parallel Simulated Annealing by Generalized Speculative 
  11761. Computation - by Andrew Sohn, Zhihong Wu, Xue Jin
  11762.  
  11763. 3:30 - 4:00 pm: BREAK
  11764.  
  11765.         4:00 - 5:30 pm
  11766. Session A-7: Languages  I (Mandalay West)
  11767. Chair: Benjamin Wah (University of Illinois at Urbana-Champaign)
  11768. L: On the Granularity of Events when Modeling Program 
  11769. Executions - by Eric Leu, Andre Schiper
  11770. L: Cloning ADT Modules to Increase Parallelism: Rationale and 
  11771. Techniques - by Lonnie R. Welch
  11772. L: The Design and Implementation of Late Binding in a Distributed 
  11773. Programming Language - by Wenwey Hseush, Gail E. Kaiser
  11774.  
  11775. Session B-7: Reliability and Fault-Tolerance I (Martaban)
  11776. Chair: A. Waksman (Air Force)
  11777. L: Measures of Importance and Symmetry in Distributed Systems - 
  11778. by Mitchell L. Neilsen
  11779. S: Dependability Analysis for Large Systems: A Hierarchical 
  11780. Modeling Approach - by Teresa A. Dahlberg, Dharma P. Agrawal
  11781. L: An Adaptive System-Level Diagnosis Approach for Hypercube 
  11782. Multiprocessors - by C. Feng, L. N. Bhuyan, F. Lombardi
  11783.  
  11784. Session C-7: Distributed Algorithms (Rangoon)
  11785. Chair: Ioannis Tollis (UT-Dallas)
  11786. L: How to Share a Bounded Object: A Fast Timing-Based Solution 
  11787. - by R. Alur, G. Taubenfeld
  11788. L: Using Induction to Prove Properties of Distributed Programs - 
  11789. by V. Garg and A. Tomlinson
  11790. S: An Optimal Distributed Ear Decomposition Algorithm with 
  11791. Applications to Biconnectivity and Outer Planarity Testing - by A. 
  11792. Kazmierczak, S. Radhakrishnan
  11793. S: Group Membership in a Synchronous Distributed System - by G. 
  11794. Alari, A. Ciuffoletti
  11795.  
  11796. Friday, December 3, 1993
  11797.  
  11798.         8:30 - 10:00 am
  11799. Session A-8: Compilation (Mandalay West)
  11800. Chair: Paraskevas Evripidou (SMU)
  11801. L: Compiling Distributed C++ - by Harold Carr, Robert Kessler, 
  11802. Mark Swanson
  11803. L: ALIAS Environment:  A Compiler for Application Specific 
  11804. Arrays - by James J. Liu, Milos D. Ercegovac
  11805. L: An Algorithm to Automate Non-Unimodular Transformations of 
  11806. Loop Nests - by Jingling Xue
  11807.  
  11808. Session B-8: Languages II (Martaban)
  11809. Chair: Les Miller (Iowa State University)
  11810. L: Genie: An Environment for Partitioning Mapping in Embedded 
  11811. Multiprocessors - by S. Yalamanchili, L. Te Winkel, D. 
  11812. Perschbacher, B. Shenoy
  11813. L: Analysis of Affine Communication Specifications - by S. 
  11814. Rajopadhye
  11815. L: C-Linda Implementation of Distinct Element Model - by Siong 
  11816. K. Tang, Richard Zurawski
  11817.  
  11818. Session C-8: Fault-Tolerant Communication (Rangoon)
  11819. Chair: Yanjun Zhang (SMU)
  11820. L: Multicasting in Injured Hypercubes Using Limited Global 
  11821. Information  - by J. Wu, K. Yao
  11822. L: Fault-Tolerance Properties of deBruijn and Shuffle-Exchange 
  11823. Networks - by M. Baumslag
  11824. L: Communication Complexity of Fault-Tolerant Information 
  11825. Diffusion - by L. Gargano, A. Rescigno
  11826.  
  11827. 10:00 - 10:30 am: BREAK
  11828.  
  11829.         10:30 - 12:00 noon
  11830. Session A-9: Interconnection Networks/Routing III (Mandalay 
  11831. West)
  11832. Chair: Dhiraj K. Pradhan (Texas A&M)
  11833. L: Exact Solutions to Diameter and Routing Problems in PEC 
  11834. Networks - by C. S. Raghavendra, M. A. Sridhar
  11835. L: Folded Peterson Cube Networks:  New Competitors for the 
  11836. Hyper Cube - by Sabine Oehring, Sajal K. Das
  11837. S: A Unified Structure for Recursive Delta Networks - by P. 
  11838. Navaneethan, L. Jenkins
  11839. S: Recursive Diagonal Torus:  An Interconnection Network for 
  11840. Massively Parallel Computers - by Yulu Yang, H. Amano, H. 
  11841. Shibamura, T. Sueyoshi
  11842.  
  11843. Session B-9: Potpourri (Martaban)
  11844. Chair: Bill D. Carroll (UT-Arlington)
  11845. L: A Processor Allocation Strategy Using Cube Coalescing in 
  11846. Hypercube Multicomputers - by Geunmo Kim, Hyusoo Yoon
  11847. S: An Efficient Storage Protocol for Distributed Object Oriented 
  11848. Databases- by Min He, Les L. Miller, A. R. Hurson, D. Sheth
  11849. S: Performance Effects of Synchronization in Parallel Processors - 
  11850. by Roger D. Chamberlain, Mark A. Franklin
  11851. S: Compiling Distribution Directives in a FORTRAN 90D Compiler 
  11852. - by Z. Bozkus, A. Choudhary, G. Fox, T. Haupt, S. Ranka
  11853. S: A Proposed Parallel Architecture for Exploring Potential 
  11854. Concurrence at Run-Time - by M. F. Chang, Y. K. Chan
  11855.  
  11856. Session C-9: Parallel Algorithms (Rangoon)
  11857. Chair: Farhad Shahrokhi (University of North Texas)
  11858. L: Fast Rehashing in PRAM Emulations - by J. Keller
  11859. L: On the Furthest-Distance-First Principle for Data Scattering with 
  11860. Set-Up Time - by Y-D. Lyuu
  11861. L: Zero-One Sorting on the Mesh - by D. Krizanc and L. 
  11862. Narayanan
  11863.  
  11864. 12:00 - 1:30 pm: LUNCH
  11865.  
  11866.         1:30 - 3:00 pm
  11867. Session A-10: Distributed Systems II (Mandalay West)
  11868. Chair: Dan Moldovan (SMU)
  11869. L: Incremental Garbage Collection for Causal Relationship 
  11870. Computation in Distributed Systems - by R. Medina
  11871. S: STAR:  A Fault-Tolerant System for Distributed Applications - by B. 
  11872. Folliot, P. Sens
  11873. S: Flexible User-Definable Performance of Name Resolution 
  11874. Operation in Distributed File Systems - by Pradeep Kumar Sinha, 
  11875. Mamoru Maekawa
  11876. S: A Layered Distributed Program Debugger - by Wanlei Zhou
  11877. S: Distributed Algorithms on Edge Connectivity Problems - by Shi-
  11878. Nine Yang, M.S. Cheng
  11879.  
  11880. Session B-10: Partitioning and Mapping II (Martaban)
  11881. Chair: Sajal Das (University of North Texas)
  11882. L: Task Assignment on Distributed-Memory Systems with 
  11883. Adaptive Wormhole Routing - by V. Dixit-Radiya, D. Panda
  11884. L: A Fast and Efficient Strategy for Submesh Allocation in Mesh-
  11885. Connected Parallel Computers - by Debendra Das Sharma, Dhiraj 
  11886. K. Pradhan
  11887. L: Scalable and Non-Intrusive Load Sharing in Distributed 
  11888. Heterogeneous Clusters - by Aaron J. Goldberg, Banu Ozden
  11889.  
  11890. Session C-10: Network Communication (Rangoon)
  11891. Chair: C.S. Raghavendra (WSU)
  11892. L: Optimal Communication Algorithms on the Star Graph 
  11893. Interconnection Network - by S. Akl, P. Fragopoulou
  11894. L: Embedding Between 2-D Meshes of the Same Size - by W. 
  11895. Liang, Q. Hu, X. Shen
  11896. S: Optimal Information Dissemination in Star and Pancake 
  11897. Networks - by A. Ferreira, P. Berthome, S. Perennes
  11898.  
  11899. 3:00 - 3:30 pm: BREAK
  11900.  
  11901.         3:30 - 5:00 pm
  11902. Session A-11: Applications and Experimental Results III (Mandalay 
  11903. West)
  11904. Chair: Bertil Folliot (Universite Paris)
  11905. L: Extended Distributed Genetic Algorithm for Channel Routing - 
  11906. by B. B. Prahalada Rao, R. C. Hansdah
  11907. S: A Data-Parallel Approach to the Implementation of Weighted 
  11908. Medians Technique on Parallel/Super-computers - by K. P. Lam, 
  11909. Ed. Horne
  11910. S: Matching Dissimilar Images:  Model and Algorithm - by Zhang 
  11911. Tianxu, Lu Weixue
  11912. S: Parallel Implementations of Exclusion Joins - by Chung-Dak 
  11913. Shum
  11914. S: Point Visibility of a Simple Polygon on Reconfigurable Mesh - 
  11915. by Hong-Geun Kim and Yoo-Kun Cho
  11916.  
  11917. Session B-11: Reliability and Fault-Tolerance II (Martaban)
  11918. Chair: Ben Lee (Oregon State University)
  11919. L: Adaptive Independent Checkpointing for Reducing Rollback 
  11920. Propagation - by Jian Xu, Robert H. B. Netzer
  11921. L: Fast Polylog-Time Reconfiguration of Structurally Fault-
  11922. Tolerant Multiprocessors - by Shantanu Dutt
  11923. L: Real-Time Distributed Program Reliability Analysis - by Deng-
  11924. Jyi Chen, Ming-Cheng Sheng, Maw Sheng
  11925.  
  11926. Session C-11: Interconnection Networks/Routing IV (Rangoon)
  11927. Chair: Sudha Yalamanchili (Georgia Tech.)
  11928. L: Scalable Architectures with k-ary n-cube cluster-c  organization - 
  11929. by Debashis Basak, Dhabaleswar Panda
  11930. L: On Partially Dilated Multistage Interconnection Networks with 
  11931. Uniform Traffic and Nonuniform Traffic Spots - by M. Jurczyk, T. 
  11932. Schwederski
  11933. S: Binary deBruijn Networks for Scalability and I/O Processing - by 
  11934. Barun K. Kar, Dhiraj K. Pradhan
  11935. S: A Class of Hypercube-Like Networks - by Anirudha S. Vaidya, 
  11936. P. S. Nagendra Rao, S. Ravi Shankar
  11937.  
  11938. Saturday, December 4, 1993
  11939.  
  11940. Tutorial T1: Roles of Optics in Parallel Computing and High-Speed 
  11941. Communications
  11942. by Ahmed Louri - University of Arizona
  11943. 8:30 am - 5:00 pm (Martaban)
  11944. This tutorial will start by examining the state-of-the-art in parallel 
  11945. computing, including parallel processing paradigms, hardware, and 
  11946. software.  We will then discuss the basic concepts of optics in 
  11947. computing and communications and the motivations for considering 
  11948. optics and ways in which optics might provide significant 
  11949. enhancements to the computing and communications technologies.  
  11950. The tutorial will include some case studies of optical computing and 
  11951. switching systems.  Current research and future applications of 
  11952. optical computing are discussed.
  11953.  
  11954. Tutorial T2: Functional Programming
  11955. by Patrick Miller and John Feo - Lawrence Livermore National 
  11956. Laboratory
  11957. 8:30 am - 5:00 pm (Rangoon)
  11958. The objective of this tutorial is to familiarize the participants with 
  11959. the current state of functional languages.  We will cover both 
  11960. theoretical and practical issues.  We will explain the mathematical 
  11961. principals that form the foundation of functional languages, and 
  11962. from which they derive their advantages.  We will survey a 
  11963. representative set of existing functional languages and different 
  11964. implementation strategies.  We will use the functional language 
  11965. Sisal to expose the participants to the art of functional 
  11966. programming.
  11967.  
  11968. Tutorial T3: Instruction Scheduling
  11969. by Barbara Simons and Vivek Sarkar - IBM Corp.
  11970. 8:30 - 12:00 noon (Nepal)
  11971. In this tutorial we describe different models of deterministic 
  11972. scheduling, including pipeline scheduling, scheduling with inter-
  11973. instructional latencies, scheduling VLIW machines, and assigned 
  11974. processor scheduling.  In addition, we present an overview of 
  11975. important extensions to the basic block scheduling problem.  The 
  11976. program dependence graph, annotated with weights, provides a 
  11977. good representation for global instruction scheduling beyond a 
  11978. basic block.  Finally, we describe the close interaction between the 
  11979. problems of instruction scheduling and register allocation.
  11980.  
  11981. Tutorial T4: Software Systems and Tools for Distributed 
  11982. Programming 
  11983. by Anand Tripathi - University of Minnesota
  11984. 1:30-5:00 pm (Nepal)
  11985. This tutorial will present an overview of the most commonly used 
  11986. paradigms and models for distributed computing.  This discussion 
  11987. will address interprocess communication models and heterogeneous 
  11988. computing issues.  An overview of the object model of computing 
  11989. will be presented in the context of micro-kernel architectures for 
  11990. distributed computing.  The programming languages and tools to be 
  11991. discussed here include Parallel Virtual Machine (PVM), P4, Linda, 
  11992. Express, Mentat, Condor, CODE/ROPE, and Orca.  
  11993.  
  11994.  
  11995. Approved: parallel@hubcap.clemson.edu
  11996. Follow-up: comp.parallel
  11997. Path: bounce-back
  11998. Newsgroups: comp.parallel
  11999. From: justin@postoffice.utas.edu.au (Justin Ridge)
  12000. Subject: Parallelism in graphics apps
  12001. Organization: University of Tasmania, Australia.
  12002.  
  12003. Hi folks.  A quick question -
  12004. I have to do some research on the developing use of parallel processors in
  12005. graphics applications.  Can anyone here recommend any articles that are
  12006. (say) available via ftp or email relating to this topic?  Or can you
  12007. give me any IEEE transactions etc. which deal with specifically with the
  12008. application of parallel processors to graphics?  Even a few simple starters
  12009. would be most appreciated.
  12010.  
  12011. Thanks muchly,
  12012. JR
  12013.  
  12014.  
  12015. Approved: parallel@hubcap.clemson.edu
  12016. Follow-up: comp.parallel
  12017. Path: bounce-back
  12018. Newsgroups: comp.parallel
  12019. From: fyodor@cs.uiuc.edu (Chris Kuszmaul)
  12020. Subject: Re: 12 ways
  12021. Organization: University of Illinois, Dept of Comp Sci, Urbana, IL
  12022. References: <1993Oct14.131912.9126@hubcap.clemson.edu>
  12023.  
  12024.  
  12025. In article <1993Oct14.131912.9126@hubcap.clemson.edu> Peter Su <psu+@cs.cmu.edu>  writes:
  12026. >"ENM" == Eugene N Miya <eugene@nas.nasa.gov> writes:
  12027. >
  12028. >ENM> Multilate the algorithm used in the parallel implementation to
  12029. >ENM> match the architecture.
  12030. >
  12031. >Where is the line between reasonable amounts of optimization and
  12032. >'mutilating the algorithm'?
  12033. >
  12034. >If I take and implementation of an algorithm that does not vectorize
  12035. >well (say), and 'mutilate' it into an implementation that does, is
  12036. >that fair from the standpoint of good benchmarking?... etc..
  12037.  
  12038.   Changing the algorithm, per se, is not the problem. The real problem
  12039. is twofold. First, there are examples of people trying to solve
  12040. sparse linear systems using some slowly convergent
  12041. algorithm that parallelizes well, but requires more iterations than
  12042. a more rapidly convergent algorithm that does not parallelize well.
  12043. They then turn around and quote MFLOP numbers based on the efficiency
  12044. of the easily parallelized algorithm without admitting that the time
  12045. to completion is not at all impressive.
  12046.  
  12047.   The second, and more insidious problem is to alter the problem definition
  12048. itself so that the architecture in use is unfairly favored. For example,
  12049. if you have a CM5, you might require that the algorithm include random
  12050. red lights to flash in the computer room. If you have a MP2, you might
  12051. require that the algorithm generate vicious volleyball players in your 
  12052. devlopment group. :-) :-)
  12053.  
  12054.  
  12055.   CLK
  12056.  
  12057.  
  12058.  
  12059.  
  12060. Approved: parallel@hubcap.clemson.edu
  12061. Follow-up: comp.parallel
  12062. Path: bounce-back
  12063. Newsgroups: comp.parallel
  12064. From: jsmith@king.mcs.drexel.edu (Justin Smith)
  12065. Subject: Re: Recursive tree traversal in C*
  12066. Organization: Drexel University
  12067. References: <1993Oct13.120321.15631@hubcap.clemson.edu>
  12068.  
  12069. In article <1993Oct13.120321.15631@hubcap.clemson.edu> jd@viz.cs.unh.edu (Jubin P Dave) writes:
  12070. >i am trying to implement a radiosity algorithm using C*.  i have a BSP tree
  12071. >which i need to traverse to create a front to back list of polygons. 
  12072. >As C* lacks parallel pointers i use arrays to immplement my tree.
  12073. >
  12074. >now my problem is that as function calls are scalar code i cannot use the
  12075. >usual "where" control structures and call the same routine recursively.
  12076. >doing so means going into an infinite loop.
  12077.  
  12078. There is a parallel algorithm for recursive tree-traversal: but it might
  12079. not be what you want. I describe it in my book 
  12080.  
  12081. Title: The Design and Analysis of Parallel Algorithms
  12082. Author: Justin R. Smith
  12083. Publisher: Oxford University Press
  12084. ISBN: 0-19-507881-0
  12085.  
  12086. It is the  Euler-Tour technique, and  involves creating a  linked list
  12087. that represents   the    traversal,  and   then  scanning  that     in
  12088. parallel. Although this book includes a fair amount of C* source-code,
  12089. I don't think I  wrote a program to do  this tree-traversal (I left it
  12090. as an exercise!).
  12091.  
  12092. Hope this helps!
  12093.  
  12094. -- 
  12095. _____________________________________________________________________________
  12096. Justin R. Smith                                        Office: (215) 895-2671
  12097. Department of Mathematics and Computer Science           Home: (215) 446-5271
  12098. Drexel University                                         Fax: (215) 895-2070
  12099.  
  12100. Approved: parallel@hubcap.clemson.edu
  12101. Follow-up: comp.parallel
  12102. Path: bounce-back
  12103. Newsgroups: comp.parallel
  12104. From: cheekong@iss.nus.sg (Chui Chee Kong)
  12105. Subject: branch and bound
  12106. Organization: Institute Of Systems Science, NUS
  12107.  
  12108. will appreciate if someone can email me an answer to the following:
  12109.  
  12110. (1) What have branch and bound been used for ?
  12111. I know that example applications include Integer Programming, AI
  12112. knowledge base searching, travelling saleman problem etc.
  12113.  
  12114. (2) What are the size of these problems solved using branch and bound
  12115. in the practical world?
  12116.  
  12117. (3) If I am to solve the problem using branch and bound on a distributed
  12118. memory system, what is the size of communication compared to that of
  12119. computation?
  12120.  
  12121. Thanks you.
  12122.  
  12123. chee kong
  12124. internet: cheekong@iss.nus.sg
  12125.  
  12126.  
  12127. Approved: parallel@hubcap.clemson.edu
  12128. Follow-up: comp.parallel
  12129. Path: bounce-back
  12130. Newsgroups: comp.ai,comp.research.japan,comp.lang.prolog,comp.parallel
  12131. From: j-sato@goku.icot.or.jp (Motoaki SATO)
  12132. Subject: IFS Newsletter No.6 (Eng)
  12133. Reply-To: irpr@icot.or.jp
  12134. Organization: JIPDEC/ICOT,Tokyo,JAPAN
  12135.  
  12136.                                                      14, October, 1993
  12137.  
  12138.                                                            No. 6
  12139.                   ICOT FREE SOFTWARE NEWSLETTER
  12140.                   -----------------------------
  12141.  
  12142.  
  12143. [Newly released ICOT Free Software]
  12144.  
  12145.     To date, 71 programs have been released as ICOT Free Software. 
  12146. Now, we are releasing a further six programs. These include the
  12147. experimental version of KLIC -- a KL1 programming environment for UNIX
  12148. systems, a language processor for a process-oriented high-level
  12149. programming language running on top of KL1, and several tools for
  12150. genome information processing.
  12151.  
  12152.  
  12153. 1) Newly Released Software
  12154.  
  12155.   The following lists the new programs:
  12156.  
  12157. Symbol Processing: 3
  12158. ----------------------------------------------------------------
  12159. 72  Portable KL1 processing system: experimental version
  12160.     /ifs/ifsftp/symbolic-proc/unix/pkl1.tar.Z      130871 bytes
  12161.  
  12162. 73  Process oriented programming language AYA
  12163.     /ifs/ifsftp/symbolic-proc/pimos/aya.tar.Z      235617 bytes
  12164.  
  12165. 74  KL1 Load Distribution Library
  12166.     /ifs/ifsftp/symbolic-proc/unix/ldlib.tar.Z     123055 bytes
  12167.  
  12168.  
  12169. Applications programs of parallel logic programming: 3
  12170. ----------------------------------------------------------------
  12171. 75  Multiple Sequence Alignment by Parallel Iterative Aligner
  12172.     /ifs/ifsftp/exper-apps/pimos/multialign.tar.Z  178138 bytes
  12173.  
  12174. 76  Intelligent Refiner for Multiple Sequence Alignment
  12175.     /ifs/ifsftp/exper-apps/pimos/editalign.tar.Z   710383 bytes
  12176.  
  12177. 77  Protein Structure Visualization system: Protein View
  12178.     /ifs/ifsftp/exper-apps/unix/proview.tar.Z      997633 bytes     
  12179.  
  12180.  
  12181. 2) Detailed Description
  12182.  
  12183. 1. Portable KL1 processing system: experimental version
  12184.  
  12185.       The first and experimental version of the KLIC system for
  12186.       investigating execution method of KL1 programs on UNIX systems
  12187.       has been released. 
  12188.  
  12189.       KLIC translates KL1 programs into equivalent C programs, which
  12190.       are compiled and linked with the KLIC runtime library to obtain
  12191.       an executable.  This version runs only sequentially, but
  12192.       parallel versions will be available eventually.
  12193.  
  12194.       The compiler of this version is written in Prolog.  An Edinburgh
  12195.       Prolog compatible and a C language system are needed for to use
  12196.       it.  With Prolog and C language systems, the KLIC system can run
  12197.       on any computer, including personal computers.  Future releases
  12198.       of the compiler will be written in KL1 make the Prolog system
  12199.       unnecessary.
  12200.  
  12201.       Since this version is developed to investigate execution method
  12202.       of KL1 programs on UNIX systems, there are no convenient
  12203.       facilities such as debugger, etc. A version of KLIC with these
  12204.       facilities will be released soon.
  12205.  
  12206. 2. Process oriented programming language AYA
  12207.  
  12208.       AYA is designed upon KL1. Using AYA, it is easier to write and
  12209.       read parallel logic programs than it would be when using KL1.
  12210.       Furthermore, it is easy to avoid and fix AYA programs bugs.
  12211.  
  12212.       Message communications between processes can be expressed
  12213.       directly in AYA programs. Processes can have several states. 
  12214.       Input and output process modes are also introduced. Variables
  12215.       and streams for communication between processes can be
  12216.       terminated automatically.
  12217.  
  12218. 3. KL1 Load Distribution Library
  12219.  
  12220.       The load distribution library is a set of utilities that
  12221.       implement typical load distribution schemes such as network
  12222.       generation, process mapping, and dynamic load distribution for
  12223.       KL1 programming.
  12224.  
  12225.       The library provides templates for typical distribution schemes.
  12226.       A parallel program for solving a given problem is created by
  12227.       linking this library with problem-specific code written by the
  12228.       user.
  12229.  
  12230. 4. Multiple sequence alignment by Parallel Iterative Aligner
  12231.  
  12232.       This program solves multiple alignment problems that align
  12233.       similar parts of protein sequences. The parallel iterative
  12234.       aligner, a method of repeating partiall improvement by using
  12235.       dynamic programming, is implemented.
  12236.  
  12237.       Put concretely, possible partial improvement is done on each
  12238.       processor in parallel, with the best result being selected.
  12239.       This is a sort of hill-climbing method, the program being
  12240.       written in KL1. This program solves large scale multiple
  12241.       alignment problems with high quality on PIM. For example,
  12242.       aligning 20 sequences,each of which consists of 80 characters
  12243.       requires about 10 minutes on PIM using 256 processors.
  12244.  
  12245.       The result of this program has a confidence high enough to allow
  12246.       the investigation of biological considerations. Analyzing the
  12247.       behavior of this program will provide you with valuable
  12248.       knowledge on parallel information processing and parallel load
  12249.       distribution.
  12250.  
  12251. 5. Intelligent Refiner for Multiple Sequence Alignment
  12252.  
  12253.       This program refines a protein sequence aligned by Multiple
  12254.       Sequence Alignment with biological knowledge. This program has
  12255.       an interface to obtain knowledge such as the plan a biologist
  12256.       uses for refining protein sequences.
  12257.  
  12258.       This program is providfed with automatic aligner with
  12259.       constraints, that acts on a part of protein sequences designated
  12260.       by the user, using the mouse interface. The automatic aligner
  12261.       with constraints aligns protein sequences, keeping part of the
  12262.       sequences fixed by user. This program is written in C with Xlib
  12263.       and OSF/Motif, making it easy for users to handle.
  12264.  
  12265.       The alignment of part of protein sequence is processed by KL1
  12266.       program, with the result of the alignment appearing on the
  12267.       display. This program has an alignment editor that can insert
  12268.       and delete gaps, as well as search for a motif by means of the
  12269.       mouse interface.
  12270.  
  12271. 6. Protein Structure Visualization System: Protein View
  12272.  
  12273.       This system displays the three-dimensional structure of a
  12274.       protein on a graphical work station. This system consists of tow
  12275.       parts, Pro-View and 3D-View.
  12276.  
  12277.       Pro-View reads protein data from PDB(Protein Data Bank) and
  12278.       generates graphical object description language 3D-talk. 3D-View
  12279.       is a three-dimensional general purpose visualization tool that
  12280.       interprets 3D-Talk.
  12281.  
  12282.       3D-View can visualize not only protein structures, but also
  12283.       robot structures and flight simulation. It also lets you animate
  12284.       these objects.
  12285.  
  12286.       3D-Talk is a object-oriented language. It is easy for beginners
  12287.       to understand because its grammar is similar to that of English.
  12288.       Pro-View is a tool for analyzing protein structures. It features
  12289.       a Pro-Talk, an extension of 3D-Talk. This system provides a
  12290.       powerful means of visualizing processes such as protein folding
  12291.       simulation.
  12292.  
  12293.  
  12294.       The ICOT Free Software Catalog-II has recently been published. 
  12295.       Its contents explain these new programs that have released as
  12296.       ICOT Free Software. Anyone wishing to obtain this catalog is
  12297.       invited to contact the IFS desk via e-mail, mail or fax at the
  12298.       address at the end of this newsletter.
  12299.  
  12300.  
  12301. [User's Group]
  12302.  
  12303.     Anyone interested in organizing a user's group to carry out
  12304. research on any particular item of ICOT Free Software, for the
  12305. purposes of revision or improvement is invited to contact the IFS-desk
  12306. via e-mail at the address given at the end of this newsletter.
  12307.  
  12308.     We hope to feature some of your proposals in the next issue of the
  12309. newsletter. Reactions to your proposals shall also be forwarded to
  12310. you.
  12311.  
  12312.     Revised programs can be stored on the FTP server at ICOT, if you
  12313. feel that your revision would be useful for other users.
  12314.  
  12315. [About Common ESP]
  12316.  
  12317.     Some programs in ICOT Free Software can be executed under Common
  12318. ESP (CESP).  CESP is not part of the ICOT Free Software, instead being
  12319. available from AI Language Research Institute (AIR). The address of
  12320. the AIR is as follows. To contact AIR with questions related to Common
  12321. ESP, use the following address.
  12322.  
  12323.     Research Management Department
  12324.     AI Language Research Institute, Ltd.
  12325.  
  12326.         c/o Computer & Information Systems Laboratory
  12327.     Mitsubishi Electric Corporation
  12328.     1-1, Ofuna 5-chome, Kamakura
  12329.     Kanagawa 247 Japan
  12330.  
  12331.     e-mail: cesp-request@air.co.jp
  12332.     FAX:    +81-467-48-4847
  12333.  
  12334.  
  12335. [Contacts]
  12336.  
  12337.     For information on IFS, access
  12338.  
  12339.                 ifs@icot.or.jp
  12340.  
  12341. by e-mail.  If you receive a paper edition of this newsletter, let us
  12342. know your e-mail address and we shall send you the electronic edition.
  12343. If you do not have an e-mail facility, contact the address below.
  12344.  
  12345.     All available IFS is listed in "ICOT Free Software Catalog" and
  12346. "ICOT Free Software Catalogue II" . If you do not have a copy of
  12347. either catalog, supply the IFS-desk with your postal address and we
  12348. shall arrange to send a copy to you.
  12349.  
  12350.     If any of your colleagues or acquaintances are interested in IFS,
  12351. let us know their name and both their e-mail and postal addresses, and
  12352. we shall arrange to send them both the newsletter and catalog.
  12353.  
  12354.         ICOT Free Software desk
  12355.  
  12356.         Institute for New Generation Computer Technology
  12357.         21st Floor, Mita Kokusai Bldg.
  12358.         4-28, Mita 1-chome
  12359.         Minato-ku, Tokyo 108
  12360.         Japan
  12361.  
  12362.         FAX:   +81-3-3456-1618
  12363. --
  12364.  Institute for New Generation Computer    email:j-sato@icot.or.jp
  12365.   Technology (ICOT) 2nd lab/IR&PR-G        tel:+81-3-3456-3192
  12366.      Motoaki SATO                          fax:+81-3-3456-1618
  12367.  
  12368. Approved: parallel@hubcap.clemson.edu
  12369. Follow-up: comp.parallel
  12370. Path: bounce-back
  12371. Newsgroups: comp.parallel
  12372. From: ychang@cs.tamu.edu (Yeimkuan Chang)
  12373. Subject: Question on Mesh?
  12374. Organization: Texas A&M Computer Science Department, College Station, TX
  12375.  
  12376. Hello netters,
  12377.  
  12378.   I like to do some research on mesh architecture. There are many literatures
  12379. compare the performance on different topologies. However, what I want to know
  12380. is the performance difference between different types of meshes with the same
  12381. number of nodes, e.g. between 8x8x4 and 16x16. 
  12382.  
  12383.   I would appreciate any pointers or references concerning this. General
  12384. performance analysis or application oriented comparison are welcome.
  12385.  
  12386. Thanks in advance
  12387.  
  12388.  
  12389. Yeimkuan Chang
  12390. --------------------------------------------------------------------
  12391. Department of Computer Science    Office:  514A  H.R.Bright Building
  12392. Texas A&M University          Phone:   (409) 845-5007 
  12393. College Station, TX 77843-3112    E-Mail:  ychang@cs.tamu.edu
  12394. --------------------------------------------------------------------
  12395.  
  12396. Approved: parallel@hubcap.clemson.edu
  12397. Follow-up: comp.parallel
  12398. Path: bounce-back
  12399. Newsgroups: comp.parallel
  12400. From: "Carrie J. Brownhill" <brownhil@esp.ICS.UCI.EDU>
  12401. Subject: Fast MIMD machines - pointers wanted
  12402. Newsgroups: comp.parallel
  12403. Date: 19 Oct 93 18:59:25 GMT
  12404.  
  12405. Greetings,
  12406.  
  12407. I'm looking for information and pointers on shared memory MIMD
  12408. machines with fast synchronization.  I'm working on small granularity
  12409. parallelization and want to find out how small a granularity is
  12410. currently feasible on real machines.
  12411.  
  12412. I'd also really appreciate any pointers to available time or
  12413. simulators for fast shared memory MIMD machines.
  12414.  
  12415.  
  12416. Thanks very much,
  12417.  
  12418. Carrie J. Brownhill
  12419.  
  12420.  
  12421. Approved: parallel@hubcap.clemson.edu
  12422. Follow-up: comp.parallel
  12423. Path: bounce-back
  12424. Newsgroups: comp.parallel
  12425. From: jgarcia@cse.ucsc.edu (Jorge Garcia)
  12426. Subject: Info on PABLO wanted
  12427. Date: 19 Oct 1993 23:56:44 GMT
  12428. Organization: University of California, Santa Cruz (CE/CIS Boards)
  12429.  
  12430. I'm looking for any information available on the PABLO system, from
  12431. the University of Illinois (I think). Does anyone know where I can 
  12432. find technical articles about it, documentation, or any other source
  12433. of information? Please reply directly to me: jgarcia@cse.ucsc.edu
  12434. Thanks in advance,
  12435.  
  12436. Jorge
  12437.  
  12438. Approved: parallel@hubcap.clemson.edu
  12439. Follow-up: comp.parallel
  12440. Path: bounce-back
  12441. Newsgroups: comp.parallel
  12442. From: Greg.Wilson@cs.anu.edu.au (Greg Wilson (EXP 31 dec 93))
  12443. Subject: terminology question
  12444. Organization: Australian National University
  12445.  
  12446. I have always used the term "star" to refer to a topology in which every processor
  12447. is connected to every other; however, I am told that the term is also used for
  12448. topologies in which processors 1..N are connected to a distinguished central
  12449. processor 0.  Assuming that the latter definition is more common, is there a term
  12450. for topologies of the former type?
  12451.  
  12452. Thanks,
  12453.  
  12454. Greg Wilson
  12455.  
  12456.  
  12457. Approved: parallel@hubcap.clemson.edu
  12458. Follow-up: comp.parallel
  12459. Path: bounce-back
  12460. Newsgroups: comp.parallel
  12461. From: N MacDonald <nbm@dcs.ed.ac.uk>
  12462. Subject: Workshop on Cluster Computing
  12463. Organization: Department of Computer Science, University of Edinburgh
  12464.  
  12465. JISC/NTSC Workshop on Cluster Computing
  12466.  
  12467. The University of Edinburgh
  12468.  
  12469. Tuesday 2nd November 1993
  12470.  
  12471. Workstation and machine clusters are seen by many to be a major
  12472. development in the evolution and application of parallel environments. 
  12473. In order to inform, and to discuss the issues and prospects for
  12474. applications of clusters within Higher Education, the University of
  12475. Edinburgh has organised a one-day workshop on behalf of the New
  12476. Technologies Subcommittee of the Joint Information Systems Committee of
  12477. the UK Higher Education Funding Councils. 
  12478.  
  12479. Papers from leading practitioners in the field from the UK, Europe and
  12480. the USA, will present the state of the art in using clusters in a
  12481. variety of different scenarios, and highlight the challenges and
  12482. problems which arise.  Significant opportunities for discussion and
  12483. exchanges of views will be included.  It is hoped that the major
  12484. workstation vendors will be represented at the workshop.
  12485.  
  12486. Attendance will be encouraged from the largest number of individual
  12487. Higher Education Institutions.  No registration fee will be charged,
  12488. although it is essential that delegates register with the workshop
  12489. organisers AS SOON AS POSSIBLE.  Contact details are provided below
  12490. (See "FURTHER INFORMATION").
  12491.  
  12492.  
  12493.  
  12494. ***************************************************************************
  12495. ********** WORKSHOP VENUE *************************************************
  12496. ***************************************************************************
  12497.  
  12498. The workshop will be held in the John McIntyre Centre at the
  12499. University of Edinburgh's Pollock Halls of Residence.  A map and
  12500. directions will be sent out to you after registration.
  12501.  
  12502. The workshop will commence at 0930 and close at 1630, in order to
  12503. accommodate arrival in Edinburgh on the morning and departure in the
  12504. early evening.  A list of hotel and guest house accommodation is
  12505. available from the workshop organisers (See "FURTHER INFORMATION").
  12506.  
  12507. Venue:
  12508.  
  12509. John McIntyre Centre
  12510. Pollock Halls of Residence
  12511. The University of Edinburgh
  12512. St Leonard's Hall
  12513. 18 Holyrood Park Road
  12514. Edinburgh EH16 5AY
  12515.  
  12516.  
  12517.  
  12518. ***************************************************************************
  12519. ********** PROVISIONAL PROGRAMME ******************************************
  12520. ***************************************************************************
  12521.  
  12522. 0830 ARRIVAL AND REGISTRATION
  12523.  
  12524. 0930 WELCOME
  12525.        Dr R. D. Kenway, Director, Edinburgh Parallel Computing Centre, 
  12526.        The University of Edinburgh, UK
  12527.  
  12528. 0935 INTRODUCTION
  12529.        Dr A. E. Clementson, Chairman, JISC New Technologies Subcommittee
  12530.  
  12531. 0945 SUPPORTING DISTRIBUTED COMPUTING IN A SCIENTIFIC AND ENGINEERING
  12532.      ENVIRONMENT
  12533.        Professor R. J. Hynds, Professor of Computing Management,
  12534.        Imperial College of Science and Technology, UK
  12535.  
  12536.        In 1991 the Centre for Computing Services at Imperial College
  12537.        started to distribute centrally funded computing resources to
  12538.        the College's science and engineering departments.  By the end
  12539.        of 1992 all of these departments had clusters of client-server
  12540.        workstations (at least 10 workstations and a file server for
  12541.        the small departments, proportionally more for the larger
  12542.        departments) linked by a fibre optic, FDDI, campus backbone.
  12543.        The talk will be concerned with the ways in which departments
  12544.        have utilised these systems in their teaching and research,
  12545.        and the technical management problems that have arisen.  
  12546.        Consideration will be given to the managerial and technical
  12547.        problems of implementing a software package capable of running 
  12548.        a workstation cluster in 'parallel computing mode'. 
  12549.  
  12550.               R.J.  Hynds is a physicist, who spent 20 years in space
  12551.               research activities at Imperial College and still has a
  12552.               research interest in the Ulysses space craft project.
  12553.               He was appointed Head of the Centre in 1980, and assumed
  12554.           full time responsibility in 1983.  He was made Professor
  12555.               of Computing Management in 1988.  His interests are in
  12556.               the problems of managing change in computer service
  12557.               environments.
  12558.  
  12559. 1015 Discussion
  12560.  
  12561. 1030 EXPLOITING NETWORKED COMPUTERS FOR HIGH PERFORMANCE COMPUTING
  12562.        N. B. MacDonald, Edinburgh Parallel Computing Centre,
  12563.        The University of Edinburgh, UK
  12564.  
  12565.        Clustered or networked computer systems can be exploited for
  12566.        high performance computing in a variety of ways.  This talk
  12567.        will present an overview of the spectrum of possibilities, from
  12568.        dedicated homogeneous batch servers executing a set of
  12569.        sequential tasks, to heterogeneous environments supporting a
  12570.        mixture of both sequential and parallel interactive and batch
  12571.        tasks.  Particular consideration will be given to the issues
  12572.        which arise for the user and the system manager in each
  12573.        scenario.
  12574.  
  12575.               Neil MacDonald studied Computer Science and Artificial
  12576.               Intelligence at the University of Edinburgh.  Since 1990
  12577.               he has been a technical consultant on the staff of
  12578.           Edinburgh Parallel Computing Centre.  In this role he has 
  12579.               been involved in research, training and consultancy on the 
  12580.           use of parallel computing platforms in a range of 
  12581.               applications drawn from both academia and industry.  His 
  12582.               research interests focus on evaluating, modelling and 
  12583.           predicting the performance of parallel systems, and he is 
  12584.           currently preparing a PhD thesis on this topic.
  12585.  
  12586. 1100 Discussion
  12587.  
  12588. 1115 COFFEE ---------------------------------------------------------------
  12589.  
  12590. 1145 BATCH AND PARALLEL PROCESSING ON WORKSTATION CLUSTERS
  12591.        Prof. Dr. W. Gentzsch, Genias Centre for Numerically Intensive 
  12592.        Applications, Germany
  12593.  
  12594.        The replacement of mainframes by workstations and workstation
  12595.        clusters is nowadays discussed as a hot topic in research and
  12596.        industry.  This directly leads to the use of these clusters as
  12597.        batch environments which is primarily enabled by new software,
  12598.        such as e.g. CODINE (COmputing in DIstributed Memory
  12599.        Environments).
  12600.  
  12601.        A second approach to a more efficient use and load balancing of
  12602.        workstations is to cluster them into a parallel environment.
  12603.        The software tools EXPRESS and PVM provide a professional
  12604.        parallel platform for workstation clusters, and FORGE 90 allows
  12605.        semi-automatic and interactive parallelizations of existing
  12606.        computer programs.
  12607.  
  12608.        In this contribution, the software tools CODINE, EXPRESS, PVM
  12609.        and FORGE 90 will be presented and their use for batch and
  12610.        parallel workstation clusters will be discussed with the aid of
  12611.        several examples.
  12612.  
  12613.               Wolfgang Gentzsch studied mathematics and physics at TU
  12614.               Aachen, writing a doctoral thesis in ``Numerics in
  12615.               Nonlinear Elasticity''.  After research at TU Darmstadt,
  12616.               the Max-Planck Institute Garching and the German
  12617.               Aerospace and Aeronautics Establishment (DLR), he was
  12618.               appointed head of the computational fluid dynamics
  12619.               department at DLR.  Since 1985 he has been professor of
  12620.               applied mathematics and computer science at FH
  12621.               Regensburg.  He founded Center for Numerically Intensive
  12622.               Applications and Supercomputing GENIAS Software GmbH in
  12623.               1990, and GENIAS Parallel Computing GmbH in 1992 as
  12624.               European distribution, training and support centers for
  12625.               software tools and services for parallel computers and
  12626.               workstation clusters.
  12627.  
  12628. 1215 Discussion
  12629.  
  12630. 1230 LUNCH ----------------------------------------------------------------
  12631.  
  12632. 1330 GLOBAL SCIENTIFIC COMPUTING VIA A FLOCK OF CONDORS
  12633.        Dr M. Livny, University of Wisconsin-Madison, USA
  12634.  
  12635.        In recent years we have experienced a dramatic increase in the
  12636.        processing capacity owned by the scientific community.  There
  12637.        is a powerful workstation on the desk of almost every
  12638.        experimental scientist, farms of Unix boxes are assigned to the
  12639.        exclusive usage of small groups of researchers, departments own
  12640.        multiprocessors with tens or even hundreds of processing nodes,
  12641.        and many institutes have acquired supercomputers.  Due to
  12642.        fluctuations in the processing demands of the owners of these
  12643.        resources, most of them are underutilized.  At the same time,
  12644.        however, many researchers experience very long waiting times
  12645.        for their scientific computations.  The scientific community
  12646.        suffers from a "wait-while-idle" problem that leads to a huge
  12647.        gap between the computing capacity that it owns and the actual
  12648.        capacity experienced by an individual scientist.  Too often
  12649.        does a scientific computation wait in a queue while a computing
  12650.        resource that is capable of serving it is idle.
  12651.  
  12652.        Since 1984 we have been engaged in a effort to develop a system
  12653.        that will route scientific computations to unutilized computing
  12654.        resources in a cluster of privately owned Unix workstations.
  12655.        We view the Condor system that was built as a result of this
  12656.        effort as a first step in the direction of solving the
  12657.        wait-while-idle problem for scientific computations.  For more
  12658.        than four years Condor has been operational in our department.
  12659.        It currently controls a cluster of more than 250 workstations
  12660.        and is used by more than 30 researchers.
  12661.  
  12662.        In the last two years Condor has been also installed in a wide
  12663.        range of scientific environments.  The existence of a worldwide
  12664.        flock of Condors has motivated us to move to a new phase in our
  12665.        research and to address the wait-while-idle problem at an inter-
  12666.        cluster level. Assuming that each cluster of workstations is 
  12667.        controlled by a Condor system, we are currently in the process of
  12668.        developing policies and mechanisms to route jobs across Condor 
  12669.        systems.
  12670.  
  12671.        The talk will start with an overview of why and how we have 
  12672.        addressed the problem of scheduling scientific computations in 
  12673.        an environment of privately owned resources.  A description of
  12674.        the Condor system and a summary of the experience we have
  12675.        gained from using it in academic and industrial settings will
  12676.        follow.  The talk will conclude with an outline of our current
  12677.        and future research activities that address the wait-while-idle
  12678.        problem from the prospective of very large clusters of
  12679.        heterogeneous computing resources.
  12680.  
  12681.           Miron Livny received the B.S. degree in Physics and
  12682.               Mathematics in 1975 from the Hebrew University and the
  12683.               M.Sc. and Ph.D.  degrees in Computer Science from the
  12684.               Weizmann Institute of Science in 1978 and 1984,
  12685.               respectively.  Since 1983 he has been on the Computer
  12686.               Sciences Department faculty at the University of
  12687.               Wisconsin-Madison, where he is currently an Associate
  12688.               Professor.  Dr. Livny's research focuses on
  12689.               scheduling policies for processing and data management
  12690.               systems and on tools that can be used to evaluate such
  12691.               policies. His recent work includes Real-Time DBMSs,
  12692.               Client Server systems, batch processing, and tools for
  12693.               experiment management.
  12694.  
  12695. 1345 Discussion
  12696.  
  12697.  
  12698. 1415 HIGH-PERFORMANCE CLUSTERS IN A SUPERCOMPUTING ENVIRONMENT
  12699.  
  12700.        Dr R. L. Pennington, Pittsburgh Supercomputer Centre, USA
  12701.  
  12702.        The Pittsburgh Supercomputing Center has been exploring and
  12703.        exploiting the technologies associated with high-performance
  12704.        workstation cluster computing and has created the
  12705.        "SuperCluster", a workstation cluster that has become an
  12706.        integral part of the PSC supercomputing environment.  This goal
  12707.        of this project was to develop a cluster that is a manageable,
  12708.        parallel, scalable, secure and incrementally allocatable
  12709.        supercomputing class resource that is capable of supporting
  12710.        serial and parallel development and production work.  This was
  12711.        achieved by integrating and extending emerging software
  12712.        technologies in the fields of parallel software systems and
  12713.        tools, distributed file systems, and resource management.
  12714.        Scientifically significant application programs are now
  12715.        available on the SuperCluster and it is also serving as a
  12716.        development and testing environment for work in heterogeneous
  12717.        supercomputing at the PSC.
  12718.  
  12719.               Robert L. Pennington received his Ph.D. in Astronomy
  12720.               from Rice University in Houston, Texas, in 1984 with
  12721.               research based on digital image processing techniques.
  12722.               At the University of Minnesota, he led the development
  12723.               team that created a computerized, modern high-speed
  12724.               scanning microdensitometry system for astronomical
  12725.               research that used a cluster of Sun and SGI workstations
  12726.               to perform the data reduction for the real-time data
  12727.               collection system.  Currently, he is the project leader
  12728.               for the SuperCluster heterogeneous workstation cluster
  12729.               at the Pittsburgh Supercomputing Center, and the
  12730.               Workstation Cluster Software Group Leader for the
  12731.               Metacenter, a collaboration of the NSF supercomputing
  12732.               centers.
  12733.  
  12734. 1445 Discussion
  12735.  
  12736. 1500 COFFEE ---------------------------------------------------------------
  12737.  
  12738. 1530 PANEL DISCUSSION
  12739.        Chaired by Professor A. J. G. Hey, University of Southampton
  12740.  
  12741. 1625 CLOSING REMARKS
  12742.        Dr A. E. Clementson, Chairman, JISC New Technologies Subcommittee
  12743.  
  12744. 1630 CLOSE
  12745.  
  12746.  
  12747.  
  12748. ***************************************************************************
  12749. ********** FURTHER INFORMATION AND REGISTRATION ***************************
  12750. ***************************************************************************
  12751.  
  12752. Requests for further information and registration should be sent to:
  12753.  
  12754. JISC Cluster Workshop
  12755. Edinburgh Parallel Computing Centre
  12756. The University of Edinburgh
  12757. James Clerk Maxwell Building
  12758. Mayfield Road
  12759. Edinburgh
  12760. EH9 3JZ
  12761.  
  12762. Telephone: 031 650 5030
  12763. Fax:       031 650 6555
  12764. Email:     jisc-workshop@epcc.ed.ac.uk
  12765.  
  12766.  
  12767.  
  12768. ***************************************************************************
  12769. ********** REGISTRATION FORM  *********************************************
  12770. ***************************************************************************
  12771.  
  12772. Name:______________________________________________________________________
  12773.  
  12774. Affiliation:_______________________________________________________________
  12775.  
  12776. Position:__________________________________________________________________
  12777.  
  12778. Postal address:    ___________________________________________________________
  12779.  
  12780.                 ___________________________________________________________
  12781.  
  12782.                 ___________________________________________________________
  12783.  
  12784.                 ___________________________________________________________
  12785.  
  12786.                 ___________________________________________________________
  12787.  
  12788. Postcode:       ______________________
  12789.  
  12790. Telephone:      ______________________
  12791.  
  12792. Fax:            ______________________
  12793.  
  12794. Email address:  ______________________
  12795.  
  12796.  
  12797.  
  12798.  
  12799.  
  12800.  
  12801.  
  12802. Approved: parallel@hubcap.clemson.edu
  12803. Follow-up: comp.parallel
  12804. Path: bounce-back
  12805. Newsgroups: comp.parallel
  12806. From: Ken Thomas <K.S.Thomas@ecs.soton.ac.uk>
  12807. Subject: Comett Course
  12808. Date: 20 Oct 1993 11:35:58 +0100
  12809. Organization: Electronics and Computer Science, University of Southampton
  12810.  
  12811. Appended are details of Comett course to be given at Soultz, France
  12812. Nov 2-5, 1993
  12813. -- 
  12814. Dr Ken Thomas
  12815. Department of Electronics and Computer Science
  12816. University of Southampton
  12817. Southampton
  12818. S09 5NH
  12819. United Kingdom
  12820.  
  12821. Telephone : 0703-592170
  12822. Fax       : 0703-593045
  12823. Email     : kst@uk.ac.soton.ecs
  12824. Applications for High Performance Computers
  12825. Soultz, France
  12826. Date:    November 2nd, 3rd, 4th and 5th, 1993
  12827.  
  12828. Nov 2nd-5th, 1993
  12829.  
  12830. The aim of this course is to understand some aspects of current applications of
  12831. high performance computers.
  12832.  
  12833. There are three main objectives:
  12834. 1.  To give an overview of parallel hardware and software and to explore the
  12835.     role of performance critical parameters. Matrix kernels are also explored.
  12836.  
  12837. 2.  To give awareness of the tools that are likely to be important in the future.
  12838.     This includes HPF (High performance Fortran) and the message passing standards.
  12839.  
  12840. 3.  To put together applications in diverse areas of science and engineering. 
  12841.     There are speakers on seismic modelling, CFD, Structural Analysis, Molecular
  12842.     dynamics and climate modelling.
  12843.  
  12844. Programme.
  12845.  
  12846. Day 1    14.00 Start Introduction and Welcome        
  12847.     Session 1    Overview
  12848.             Introduction to Parallel Hardware
  12849.             Introduction to Parallel Software 
  12850.             Panel Discussion
  12851.  
  12852. Day 2    Start 09.30
  12853.     Session 2    Performance Characterization
  12854.             Low-level Benchmarks and Performance Critical Parameters
  12855.             CFD                           
  12856.     Session 3    Applications I
  12857.             Seismic Modelling
  12858.             Climate Modelling 
  12859.             Panel Discussion
  12860.  
  12861. Day 3    Start 9.30
  12862.     Session 4    HPC Standards
  12863.             HPF
  12864.             Message-Passing Interface
  12865.             
  12866.     Session 5    Parallel Matrix Kernels
  12867.             Structural Analysis
  12868.             Panel Discussion
  12869.  
  12870. Day 4    Start 09.00
  12871.     Session 6    The Parkbench Initiative
  12872.             Grand Challenge Applications
  12873.             Panel Discussion.
  12874.     Close 12.15
  12875.  
  12876. Cost  375 pounds sterling (Full Rate)
  12877.       275 pounds sterling for academic participants and members of ACT
  12878.       costs include lunch and refreshments throughout the day.
  12879.  
  12880.  
  12881. Minimum numbers  10
  12882.  
  12883. This course cannot be given unless there is a minimum of 10 participants. 
  12884. It will be necessary to receive the your registration no later than Monday 25th October, 1993.
  12885.  
  12886. Should the course not run, then all registration fees will be returned.
  12887.  
  12888. Applications for High Performance Computers
  12889. Soultz, France
  12890. Date:    November 2nd, 3rd, 4th and 5th, 1993
  12891. Applications for High Performance Computing
  12892.  
  12893. Registration Form
  12894.  
  12895. Title . . . . . . . . . . . . . . . . .
  12896.  
  12897. Surname  . . . . . . . . . . . . . . . . 
  12898.  
  12899. First Name  . . . . . . . . . . . . . . .
  12900.  
  12901. Institution  . . . . . . . . . . . . . . . . . . . . . . . . . . .
  12902.  
  12903.  
  12904. Address  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  12905.  
  12906.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  12907.  
  12908.  
  12909.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  12910.  
  12911.  
  12912.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
  12913.  
  12914.  
  12915. Tel:  . . . . . . . . . . . . . . . .. 
  12916.  
  12917. Fax:  . . . . . . . . . . . . . . . . . 
  12918.  
  12919.  
  12920. I enclose a cheque in the sum of  . . . . . . . . . . . . . . . . . .
  12921.  
  12922.  
  12923. Made Payable to a"University of Southampton".  Please forward cheque and registration to Telmat Informatique.
  12924.  
  12925.  
  12926.  
  12927.  
  12928.  
  12929. Venue:    Telmat Informatique
  12930.     Z.1. - 6 Rue de l'industrie, B P 12
  12931.     68360 Soultz Cedex
  12932.     France
  12933.     
  12934. Local Accommodation Arrangements contact:
  12935.  
  12936.     Rene Pathenay/Francoise Scheirrer
  12937.     Telmat Informatique
  12938.     Tel:  33 89 765110
  12939.     Fax:  33 89 742734
  12940.  
  12941.     Email:  pathenay@telmat.fr
  12942.  
  12943.  
  12944. Approved: parallel@hubcap.clemson.edu
  12945. Follow-up: comp.parallel
  12946. Path: bounce-back
  12947. Newsgroups: comp.parallel
  12948. Subject: Help: Hypercubes in Fat Trees
  12949. From: Shigeru Ishimoto <ishimoto@jaist.ac.jp>
  12950.  
  12951. Dear Grouper,
  12952.  
  12953. I am looking for the paper on embedding hypercube in fat tree.
  12954. Could anyone give information.
  12955.  
  12956. Thanks,
  12957. -----
  12958.  _____
  12959.    |  A I S T   Shigeru Ishimoto  (ishimoto@jaist.ac.jp)
  12960.    |  HOKURIKU  18-1 Asahidai Tatsunokuchichou Nomigun Ishikawaken Japan
  12961. o_/   1 9 9 0   Japan Advanced Institute of Science and Technology,Hokuriku
  12962.  
  12963.  
  12964. Approved: parallel@hubcap.clemson.edu
  12965. Follow-up: comp.parallel
  12966. Path: bounce-back
  12967. Newsgroups: comp.parallel
  12968. From: cfreese@super.org (Craig F. Reese)
  12969. Subject: Re: Help---references to CORDIC algorithm
  12970. Organization: Supercomputing Research Center (Bowie, MD)
  12971. References: <1993Oct14.171601.3726@hubcap.clemson.edu>
  12972.  
  12973. In article <1993Oct14.171601.3726@hubcap.clemson.edu> Shigeru Ishimoto <ishimoto@jaist.ac.jp> writes:
  12974. >Dear Grouper,
  12975. >
  12976. >I am looking for the paper on CORDIC algorithm which discovered in the
  12977. >period 1960-1970. The algorithm was discovered again by Dr. Richard Feynman
  12978. >in 1980's.
  12979. >Could anyone give me information.
  12980. >
  12981.  
  12982. Yes.
  12983.  
  12984. One of my favorites is:
  12985.  
  12986.   Walther, J. S.
  12987.   "A unified algorithm for elementary functions"
  12988.   Spring Joint Computer Conference
  12989.   1971
  12990.  
  12991. You might also look for:
  12992.  
  12993.   Volder, J. E.
  12994.   "The CORDIC trigonometric computing technique"
  12995.   IRC Transactions on Electronic Computers Vol EC-8 No 3
  12996.   pp 330-334
  12997.   September 1959.
  12998.  
  12999. CORDIC stuff tends to pop up often in VLSI/DSP conferences.  Sorry
  13000. but I don't have any references handy. 
  13001.  
  13002. Craig
  13003.  
  13004. *** The opinions expressed are my own and do not necessarily reflect 
  13005. *** those of any other land dwelling mammals....
  13006.  
  13007. "The problem ain't what we don't know; it's what we know that just ain't so
  13008. Either we take familiar things so much for granted that we never think about 
  13009. how they originated, or we "know" too much about them to investigate closely."
  13010. -----------------
  13011. Craig F. Reese                           Email: cfreese@super.org
  13012. Supercomputing Research Center
  13013. 17100 Science Dr.
  13014. Bowie, MD  20715-4300
  13015.  
  13016. Approved: parallel@hubcap.clemson.edu
  13017. Follow-up: comp.parallel
  13018. Path: bounce-back
  13019. Newsgroups: comp.parallel
  13020. From: Douglas Hanley <dgh@dcs.ed.ac.uk>
  13021. Subject: Paralation Model of Parallel Computation
  13022. Keywords: Paralation C, MIMD
  13023. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  13024. Organization: Department of Computer Science, University of Edinburgh
  13025. Apparently-To: comp-parallel@uknet.ac.uk
  13026.  
  13027.  
  13028. I was wondering if anybody has had any experience of Gary Sabot's Paralation Model 
  13029. of Parallel Computation.  I am currently attempting to implement the models three
  13030. operators (Match, Move and Elwise) and Field data structure across a MIMD
  13031. architecture so as to investigate its performance.  I am going to use C as a base
  13032. language for the model.  I know that in 1988 Sabot was experimenting with 
  13033. Paralation C.  What I need to know is this; was this language ever completed, if so 
  13034. upon what architectures  (SIMD/MIMD), if so where can I get information upon it.
  13035. Absolutely any information regarding peoples experience of the Paralation Model 
  13036. (its usage and/or implementation) would also be useful.
  13037.  
  13038. Approved: parallel@hubcap.clemson.edu
  13039. Follow-up: comp.parallel
  13040. Path: bounce-back
  13041. Newsgroups: comp.parallel
  13042. From: schooler@apollo.hp.com (Richard Schooler)
  13043. Subject: Cray T3D cache coherence
  13044. Sender: usenet@apollo.hp.com (Usenet News)
  13045.  
  13046. (I'm not sure this went out the first time...)
  13047.  
  13048. I've been reading the Cray T3D Architecture Overview, which describes
  13049. the machine as a physically distributed, logically shared memory
  13050. machine (NUMA).  There's no mention of cache coherence, though.  As
  13051. far as I can tell, the software must handle the caches by using a
  13052. memory barrier after writes, and non-cached reads.  Is this correct?
  13053.  
  13054.         -- Richard
  13055.  
  13056.  
  13057. Approved: parallel@hubcap.clemson.edu
  13058. Follow-up: comp.parallel
  13059. Path: bounce-back
  13060. Newsgroups: comp.parallel
  13061. To: comp-parallel@uunet.UU.NET
  13062. Path: emf
  13063. From: emf@freedom.NMSU.Edu (Xyanthilous Harrierstick)
  13064. Newsgroups: comp.parallel
  13065. Subject: Intel iPSC/d5 Hypercube info requested...
  13066. Date: 20 Oct 1993 15:38:02 GMT
  13067. Organization: Student Computing Facility, New Mexico State Univ., Las Cruces
  13068. Nntp-Posting-Host: freedom.nmsu.edu
  13069.  
  13070. Hi.  Our student computing group here at NMSU has been donated an Intel
  13071. iPSC Hypercube (actually two of the big silver boxes. 64 processors
  13072. altogether) driven by an Intel 286 based System 310.  the hypercube itself
  13073. is of the d5 configuration. (lowest on the list, according to the manual)
  13074.  
  13075. We would like to use this machine to do some ray tracing and maybe some
  13076. cellular automata experiments.  
  13077.  
  13078. How does the performance of one of these systems compare with doing the
  13079. same task on a Sun4/670 ?   I'm curious to know if it's really worth the
  13080. effort to get this system functional and then recode all our software .
  13081. (I know next to nothing about parallel processed machines)
  13082.  
  13083. thanks for your time.
  13084. Erik
  13085.  
  13086. --
  13087. Erik "Xyanthilous" Fichtner
  13088. efichtne@dante.nmsu.edu         Physics and Astronomy
  13089. emf@freedom.nmsu.edu, or techs@wyvern.ankle.com
  13090. "Whattya mean I ain't kind?  Just not _YOUR_ kind!" - Megadeth
  13091. Approved: parallel@hubcap.clemson.edu
  13092. Follow-up: comp.parallel
  13093. Path: bounce-back
  13094. Newsgroups: comp.parallel
  13095. From: elammari@scs.carleton.ca (M. Elammari)
  13096. Subject: Finding smallest value on a hypercube
  13097. Organization: Carleton University
  13098.  
  13099. I posted this article few days ago, but it didn't show up
  13100. on our system. So here is another try.
  13101.  
  13102. -------------------------
  13103.  
  13104. I am lookin for parallel algorithms for finding the smallest value
  13105. on Hypercubes.
  13106.  
  13107. Any help/references will be appreciated.
  13108.  
  13109. Thank you in advance.
  13110.  
  13111.  
  13112. --
  13113. M. Elammari
  13114.  
  13115. Approved: parallel@hubcap.clemson.edu
  13116. Follow-up: comp.parallel
  13117. Path: bounce-back
  13118. Newsgroups: comp.parallel
  13119. Newsgroups: soc.college.gradinfo,comp.edu,comp.ai,comp.ai.genetic,comp.ai.neural-nets,comp.software-eng,comp.parallel
  13120. From: rro@CS.ColoState.EDU (Rod Oldehoeft)
  13121. Subject: Ph.D. fellowships in CS (esp. AI, PP, SE)
  13122. Organization: Colorado State University
  13123.  
  13124.                  PH.D. FELLOWSHIPS AVAILABLE
  13125.  
  13126.                     SPRING, 1994 SEMESTER
  13127.  
  13128.                  COMPUTER SCIENCE DEPARTMENT
  13129.  
  13130.                   COLORADO STATE UNIVERSITY
  13131.  
  13132.  
  13133.  
  13134. Fellowship support for graduate study leading to the Ph.D. in 
  13135. Computer Science is available at Colorado State University.
  13136. These fellowships were recently awarded by the U.S. Department
  13137. of Education through the Patricia Roberts Harris Fellowship
  13138. Program, AND MUST BE FILLED FOR THE JANUARY, 1994 SEMESTER!
  13139.  
  13140. The CS Department at Colorado State has enjoyed significant
  13141. growth in artificial intelligence, parallel and distributed
  13142. computing, and software engineering.  Research funding has
  13143. shown steady increases for several years, and proposals for
  13144. research infrastructure are pending.  A description of the 
  13145. research faculty, programs, facilities, and current research 
  13146. projects is attached below.
  13147.  
  13148. Description of the fellowships:
  13149.  
  13150. 1.  The stipend is the same as that for NSF Fellowships ($14,000
  13151.     in the first fiscal year).  A demonstrated need is required to
  13152.     receive the full amount.  Additional funding supports tuition,
  13153.     fees, as well as student projects.
  13154.  
  13155. 2.  The duration of the fellowship is up to five years; in one of
  13156.     the years each winning fellow will engage in teaching duties
  13157.     to satisfy Departmental degree requirements.
  13158.  
  13159. Qualifications for the award:
  13160.  
  13161. 1.  You must be admitted to the Ph.D. program in Computer Science
  13162.     at Colorado State University by the beginning of the Spring,
  13163.     1994 semester.  This means, at a minimum, that you have an earned
  13164.     baccalaureate degree in an appropriate discipline by the beginning
  13165.     of the semester, and you satisfy other requirements for admission.
  13166.  
  13167. 2.  Spring, 1994 must be your first or second semester of graduate work.
  13168.  
  13169. 3.  Because of the prestigious nature of these fellowships, you should
  13170.     be an individual whose background makes you competitive for other
  13171.     national fellowships (NSF or NPSC, for example).
  13172.  
  13173. 4.  You must be a woman or a member of a minority group, or both.
  13174.  
  13175. 5.  You must be a citizen or permanent resident of the United States.
  13176.  
  13177. TIMING IS EVERYTHING:  These awards must be filled for the Spring,
  13178. 1994 semester.  If you are qualified for an award, and find Colorado
  13179. State an attractive possibility for your graduate study, please ask for
  13180. application materials from gradinfo@cs.colostate.edu.  Please mention
  13181. this posting.
  13182.  
  13183.  
  13184.  
  13185.                          Research Programs, 1993--94
  13186.                          Computer Science Department
  13187.                          Colorado State University
  13188.  
  13189.  
  13190. FACULTY
  13191.  
  13192. Charles Anderson,  Ph.D., University  of Massachusetts;  Assistant professor;
  13193.      Neural  networks  for  control  and  signal  processing,   reinforcement
  13194.      learning,  pattern classification,  artificial  intelligence, graphics.
  13195.  
  13196. J. Ross Beveridge, Ph.D., University of Massachusetts; Assistant professor;
  13197.      Computer  vision, robot  navigation, model  matching,  visual feature
  13198.      extraction, software environments.
  13199.  
  13200. James  Bieman,   Ph.D,  University   of  Southwestern   Louisiana;  Associate
  13201.      professor; Software engineering, automated testing and analysis, metrics
  13202.      and reuse, programming languages.
  13203.  
  13204. A.P. Wim Bohm, Ph.D., University of Utrecht; Associate professor; Declarative 
  13205.      programming  languages,   algorithms  design for declarative programming
  13206.      languages, multithreaded architectrues.
  13207.  
  13208. Karl Durre,  Ph.D., Technical  University of  Hannover; Associate  professor;
  13209.      Algorithms and  data structures,  human-computer interaction, interfaces
  13210.      for the blind.
  13211.  
  13212. Michael E.  Goss, Ph.D.,  University of Texas at Dallas; Assistant professor;
  13213.      Graphics,   terrain visualization and geographic applications,    volume
  13214.      visualization, visual simulation, fractals,  digital  signal processing.
  13215.  
  13216. Dale Grit,  Ph.D., University  of Minnesota;  Associate  professor;  Parallel
  13217.      functional languages and architectures, operating systems.
  13218.  
  13219. Adele  Howe,   Ph.D.,  University   of  Massachusetts;  Assistant  professor;
  13220.      Artificial  intelligence,  evaluating  AI systems, planning, agent arch-
  13221.      itectures, failure recovery.
  13222.  
  13223. Robert Kelman, Ph.D., University of California at Berkeley; Professor, Editor
  13224.      for Computers  and Mathematics  with  Applications  and  Rocky  Mountain
  13225.      Journal of Mathematics; Computational methods, mathematical software.
  13226.  
  13227. Yashwant Malaiya,  Ph.D., Utah State University; Professor, Fault-tolerant
  13228.      computing, software reliability management, fault modeling, testing,
  13229.      hardware/software reliability evaluation, testable design.
  13230.  
  13231. Walid Najjar,  Ph.D., University of Southern California; Assistant professor;
  13232.      Computer architecture, Parallel processing and architectures, perform-
  13233.      ance and reliability evaluation, parallel simulation.
  13234.  
  13235. Rodney Oldehoeft,  Ph.D., Purdue University; Professor and Chairman; Parallel
  13236.      processing  software  and  systems,  functional  programming,  operating
  13237.      systems.
  13238.  
  13239. Kurt Olender,  Ph.D., University  of Colorado;  Assistant professor; Software
  13240.      engineering, development  environments, software analysis and evaluation
  13241.      tools, programming languages.
  13242.  
  13243. Pradip Srimani,  Ph.D.,  University  of  Calcutta;  Professor;  Parallel  and
  13244.      distributed computing, operating systems, graph theory applications.
  13245.  
  13246. Anneliese  von  Mayrhauser,  Ph.D.,  Duke  University;  Associate  professor;
  13247.      Software  engineering,   maintenance,  metrics,   testing,  reliability,
  13248.      performance evaluation.
  13249.  
  13250. Alan Wendt,  Ph.D., University of Arizona; Assistant professor; Languages and
  13251.      compilers, automated code generators and optimizers.
  13252.  
  13253. Darrell Whitley,  Ph.D., Southern  Illinois University;  Associate professor;
  13254.      Artificial intelligence,  machine learning,  genetic algorithms,  neural
  13255.      networks.
  13256.  
  13257. Anura  Jayasumana,  Ph.D.,  Michigan  State  University;  Affiliate  faculty;
  13258.      Networks, VLSI.
  13259.  
  13260. Julian Kateley, Ph.D., Michigan State University; Affiliate faculty; Computer
  13261.      systems evaluation, computer center management.
  13262.  
  13263. Frederick Kitson,  Ph.D., University of Colorado; Affiliate faculty; Graphics
  13264.      algorithms  and   architectures,  scientific   visualization,   parallel
  13265.      algorithms for geometric modeling.
  13266.  
  13267. Michael Molloy,  Ph.D., University  of  California,  Los  Angeles;  Affiliate
  13268.      faculty; Analytic modeling, stochastic petri nets, networks.
  13269.  
  13270. Jack Walicki,  Ph.D., Marquette  University; Affiliate faculty; Architectures
  13271.      and  algorithms   for  parallel   processing  and   signal   processing,
  13272.      microprogramming.
  13273.  
  13274.  
  13275. DEGREE PROGRAMS AND AREAS OF STUDY
  13276.  
  13277. The Computer  Science Department at Colorado State University offers programs
  13278. of study  leading to  Bachelor of  Science, Master  of Science, and Doctor of
  13279. Philosophy degrees  in Computer  Science.   Possible areas  of  emphasis  for
  13280. graduate studies include:
  13281.  
  13282.      Algorithms               Applicative Languages    Architecture
  13283.      Artificial Intelligence  Computational Methods    Computer Vision
  13284.      Distributed Systems      Fault-Tolerant Computing Genetic Algorithms 
  13285.      Graphics                 Languages and Compilers  Neural Networks 
  13286.      Operating Systems        Parallel Processing      Performance Evaluation
  13287.      Software Engineering
  13288.  
  13289.  
  13290. COMPUTING FACILITIES
  13291.  
  13292. The Computer  Science Department  maintains  several  distinct  laboratories:
  13293. Architecture studies:   an  HP9000/S400  server  and  five  400t  stations;
  13294. Artificial intelligence/neural  nets:   five IBM  RS6000/320H stations  and
  13295. five X  terminals;   Graphics:  an HP9000/720 workstation, a 433VRX system,
  13296. two  375SRX's   and  five   340  workstations;    Networks  and  distributed
  13297. computing:   an ATT  80386  server  and  18  80386SX  stations;    Software
  13298. engineering:    three HP9000/710  workstations, an S400 server and seventeen
  13299. M400 workstations. An HP9000/735 and numerous  HP, Sun, and DEC servers and
  13300. workstations  provide  general  purpose computing.   The  Department houses a
  13301. Motorola Monsoon Data-Flow machine, and a 16-cpu Sequent Balance 21000 multi-
  13302. processor system  for parallel  processing research.  All  the  preceding run
  13303. Unix  and are fully networked.  Researchers  have  access to  other multipro-
  13304. cessor systems at remote locations. In addition, the  Department  has a vari-
  13305. ety of X terminals and microcomputers for instructional and research purposes.
  13306. Several microprogrammable systems from AMD and TI are used for instructional 
  13307. purposes.  Laser printers are available.
  13308.  
  13309.      Academic Computing  and Networking Services maintains several IBM RS6000
  13310. servers running  AIX, and  a Computer  Visualization Laboratory.   The campus
  13311. backbone network  connects many  sites and  provides access to the Internet. 
  13312.  
  13313.  
  13314. CURRENT RESEARCH PROJECTS
  13315.  
  13316. Learning Algorithms  for Neural  Networks:   Neural networks  are a  highly
  13317.      parallel mode  of processing  with very  simple computing  elements that
  13318.      perform a ``sub-symbolic'' form of computation and representation. These
  13319.      nets learn  a set  of weighted connections among nodes that map an input
  13320.      pattern onto  an output  pattern.  In this project, we are investigating
  13321.      ways of  improving the  learning efficiency  of neural  networks.    Our
  13322.      approach involves  novel architectures  and  methods  for  learning  new
  13323.      internal representations.
  13324. Investigators: Charles Anderson and Darrell Whitley.
  13325.  
  13326. Neural Networks  for Control:   Current  design  techniques  for  automatic
  13327.      controllers require  knowledge about the system to be controlled.  Often
  13328.      this knowledge  is not  available.  We investigate using neural networks
  13329.      to improve  the performance  of controllers  by  learning  from  on-line
  13330.      experience.   We focus  on increasing  the efficiency  of  reinforcement
  13331.      learning algorithms.
  13332. Investigator: Charles Anderson.
  13333. Sponsors: National Science Foundation; American Gas Association; CSU.
  13334.  
  13335. EEG Recognition  with Neural  Networks:  We are studying the feasibility of
  13336.      human-computer interaction  through the  use of  on-line recognition  of
  13337.      electroencephalogram (EEG)  patterns.   Our approach  is to  develop new
  13338.      algorithms for developing internal representations of EEG signals.
  13339. Investigator: Charles Anderson.
  13340. Sponsor: National Science Foundation.
  13341.  
  13342. Computer Vision:   Recognition  of objects by shape is an essential problem
  13343.      within the  field of  computer vision.  This project will extend a class
  13344.      of probabilistic algorithms for determining whether an object is visible
  13345.      in a  scene, and  if so,  where precisely  the object is relative to the
  13346.      camera.  This project will also investigate parallel implementations and
  13347.      formal  ways   of  characterizing   algorithm  performance.    Potential
  13348.      application domains  include robot  navigation, photo-interpretation and
  13349.      automated manufacturing.
  13350. Investigator: J. Ross Beveridge.
  13351.  
  13352. Automated Software Testing:  One mechanism  for finding  faults in software
  13353.      is through the use of executable assertions.   Executable assertions are
  13354.      rarely used in practice, due, in part, to the actual and preceived over-
  13355.      head of defining and embedding the assertions in code. One way to expand
  13356.      the use of  executable  assertions is  with  tools  that help developers
  13357.      manage assertion definition and placement.  We  evaluate possible alter-
  13358.      natives for such tools in  context with  the design of our own assertion
  13359.      tool, C-patrol.   C-Patrol  allows  a developer  to  reference  a set of
  13360.      previously  defined  assertions,  written  in virtual C,  bind assertion
  13361.      parameters, and direct the placement of the assertions by a pre-processor.
  13362.      We are now  evaluating the use of C-Patrol for executable specifications
  13363.      and oracles, debugging, and test script generation. 
  13364. Investigator: James Bieman.
  13365. Sponsors: Colorado Advanced Software Institute.
  13366. Collaborator:  Storage Technology Corp., Micro-Motion, Inc.
  13367.  
  13368. Reuse Metrics  for Object  Oriented Software:   We are identifying a set of
  13369.      measurable reuse  attributes appropriate  to object  oriented and object
  13370.      based  systems,  deriving  a  suite  of  metrics  which  quantify  these
  13371.      attributes, and  designing prototype  tools to  take these measurements.
  13372.      Our  prototype tools can  evaluate reuse  in both Ada  and C++ software.
  13373.      We are collecting software data for empirical studies of software reuse;
  13374.      we are also investigating the relationship between reuse and  structural
  13375.      properties of software including coupling and cohesion; we are exploring
  13376.      techniques for graphical visualization of software reuse. 
  13377. Investigator: James Bieman.
  13378. Sponsors: NASA Langley Research Center.
  13379.  
  13380. Measurement  and   Analysis  of  Software  Functional  Cohesion:    We  are
  13381.      developing measures  of functional  cohesion following the approach used
  13382.      in the  physical sciences  to develop  measurements.  We define abstract
  13383.      models of  functional cohesion and use these models to identify cohesion
  13384.      attributes and  define measures  of these  attributes.  We are examining
  13385.      the orderings  that these  measures impart on software modules.  We plan
  13386.      to develop  cohesion metric  tools  and  conduct  empirical  studies  of
  13387.      cohesion in real world software.
  13388. Investigator: James Bieman.
  13389.  
  13390. Automatic Analysis  from Algebraic  Specifications:   We seek  methods  for
  13391.      using  algebraic   specifications  to   automatically  analyze  software
  13392.      implementations.   One approach  is to  convert  algebraic  axioms  into
  13393.      sequencing specifications, which are used to statically analyze programs
  13394.      using the  Cecil/Cesar system  to determine  whether specifications  are
  13395.      satisfied by the implementation.
  13396. Investigators:  James Bieman and Kurt Olender.
  13397.  
  13398. Applicative  Language   Features:    We  investigate  the  requirements  of
  13399.      scientific  programming   versus  the   features  offered   by   current
  13400.      applicative programming  languages, and  compare these  to  conventional
  13401.      programming languages.  A  first  comparative  language  study  involves
  13402.      Fortran, SISAL  and Id.   We  focus on  the implementation  of numerical
  13403.      algorithms   and study language features,     their  expressiveness  and 
  13404.      efficiency.
  13405. Investigator: Wim Bohm.
  13406. Sponsor:  Los Alamos National Laboratories.
  13407.  
  13408. Compilation  of   Functional  Languages   for  Hybrid  von  Neumann-Dataflow
  13409.      Machines:   The research  here is twofold. On the higher level we apply
  13410.      data   dependence   analysis   techniques   to   determine   uniqueness,
  13411.      completeness, and order of evaluation of array definitions. On the lower
  13412.      level we  study mappings  from IF2,  a block-structured  data dependence
  13413.      form with  explicit memory  management, to  machine independent dataflow
  13414.      code.  We map this code on paper as weel as real multithreaded machines.
  13415. Investigators: Wim Bohm and Walid Najjar.
  13416. Sponsor:  National Science Foundation.
  13417.  
  13418. VISA:  A   Virtual  Shared   Addressing  System   for   Distributed   Memory
  13419.      Multiprocessors:   We study  a run-time  system for  distributed memory
  13420.      multiprocessors, that  provides  a  single  address  space  and  latency
  13421.      tolerance, and is machine and language independent. Data distribution is
  13422.      supported  by   mapping  functions,  that  attempt  to  provide  latency
  13423.      avoidance by  tying loop  threads to the array segments they work on. We
  13424.      target VISA to be the backend for the standard Sisal compiler. Moreover,
  13425.      we use  VISA as  a stand  alone run-  time system that provides a shared
  13426.      memory abstraction for distributed C programs.
  13427. Investigators: Wim  Bohm and Rod Oldehoeft.
  13428. Sponsor: Sandia National Laboratories.
  13429.  
  13430. Numerical Algorithms  in Id:  We study the parallel complexity of numerical
  13431.      library software,  written in  Id, a  dataflow language designed at MIT,
  13432.      and executing on the Motorola/MIT Monsoon machines and, in a later stage
  13433.      of the research, on the Motorola/MIT *T machines.
  13434. Investigators: Wim Bohm and Bob Hiromoto (LANL).
  13435.  
  13436. Compression of  Static Dictionaries:   We  are developing  new methods  for
  13437.      compactly storing the keywords of static dictionaries where changing the
  13438.      contents by  deletion  and  insertion  does  not  occur.    The  storage
  13439.      representation  is  based  on  a  compressed  trie  structure  featuring
  13440.      constant access  time, easy  cross-referencing and  less than  half  the
  13441.      storage need of hash methods.
  13442. Investigator: Karl Durre.
  13443.  
  13444. Interactive Computer  Access for  the Blind:   We have developed innovative
  13445.      interaction techniques  for non-visual  computer access.   Based on this
  13446.      research we  will  design  and  implement  techniques  for  tactual  and
  13447.      auditory  access  to  textual  screen  information,  line  graphics  and
  13448.      geographical  maps.    Applications  include  text  editing,  electronic
  13449.      drawing, and an electronic atlas.
  13450. Investigator: Karl Durre.
  13451.  
  13452. Computer Aided  Map Reading for Blind People:  Most maps for sighted people
  13453.      contain far  too much  information for  tactual encoding  and access  by
  13454.      blind persons.  We are  investigating interactive  methods for selective
  13455.      tactual display of geographic information.
  13456. Investigator: Karl Durre.
  13457.  
  13458. Computer-mediated  Communication   between  Blind/Deaf-Blind   and   Sighted
  13459.      Persons:   Methods to  use computers  for direct  communication between
  13460.      blind and sighted people are being investigated. In cooperation with the
  13461.      Colorado Department of Education and the Special Education Department at
  13462.      the University  of  Northern  Colorado,  a  system  that  helps  in  the
  13463.      communication between  blind students  and sighted classroom teachers is
  13464.      being tested in some schools.
  13465. Investigator: Karl Durre.
  13466.  
  13467. Detail Enhancement in Volume Images:  This project investigates methods for
  13468.      enhancing detail  in 3D images rendered from medical imaging volume data
  13469.      such as  Magnetic Resonance  (MR), Computed Tomography (CT), and others.
  13470.      Digital signal  processing techniques  have been  applied to  MR data to
  13471.      enhance the  display of fine detail in the generated images by improving
  13472.      the calculation  of surface  normal vectors  used for  shading. Research
  13473.      continues into  improvements to  the shading  calculations and  into the
  13474.      application of  these techniques  to other  types of data in addition to
  13475.      MR.
  13476. Investigator: Michael Goss.
  13477.  
  13478. Visualization of Forest Growth and Succession:      We  are   investigating
  13479.      rendering techniques for visualizing  the  results of forest  growth and 
  13480.      succession models using  realistic images.   Terrain elevation   models,
  13481.      texture maps derived from  aerial  photographs,   and synthetic  texture
  13482.      maps generated by models based on real images  will  be used to generate
  13483.      still images and animations.  Techniques such as  fractal terrain inter-
  13484.      polation will be used to generate levels of detail in the results beyond
  13485.      that available from existing databases.
  13486. Investigators: Michael Goss and Denis Dean (Forest Sciences).
  13487.  
  13488. Distributed SISAL:   We  are extending  a shared  memory implementation  of
  13489.      SISAL  to  execute  on  distributed,  message-passing  architectures.  A
  13490.      primary issue  is the  automatic mapping  of processes across the set of
  13491.      processors to  distribute the  workload while holding down communication
  13492.      costs.   Other issues  to examine include minimizing communication costs
  13493.      for arrays,  distributing program  code, collecting  garbage cells,  and
  13494.      examining variants of the basic evaluation strategy.
  13495. Investigator:  Dale Grit.
  13496.  
  13497. Experimental Methods for Evaluating Planning Systems:       AI planners are
  13498.      difficult to  evaluate   because  they involve  many  components and are 
  13499.      embedded in complex environments.  We are developing tools to facilitate
  13500.      experiments to answer the following questions: How well does a component
  13501.      of a planning system work,  and  how will changing the task, environment
  13502.      or structure of the component affect its performance?
  13503. Investigator: Adele Howe.
  13504. Sponsor:  Advanced Research projects Agency
  13505.  
  13506. Developing Reliable plan Knowledge Bases:  Knowledge based planning systems
  13507.      tend to be brittle when  applied  in real or realistic environments.  To
  13508.      address this brittleness,  we are developing a methodology and tools for
  13509.      analyzing why planning systems  fail and  determining how those failures
  13510.      can be prevented or repaired at run-time.
  13511. Investigator:  Adele Howe.
  13512. Sponsor:  National Science Foundation
  13513.  
  13514. Dual Fourier  Analysis:   Algorithms and analysis of applications are being
  13515.      investigated for  a broad  class of  dual and  multiple Fourier  series.
  13516.      Studies include  numerical  procedures,  algorithmic  implementation  of
  13517.      closed form solutions, domains of applicability, existence of solutions,
  13518.      and applications  to heat  transfer, fracture mechanics, cryptology, and
  13519.      communication theory.
  13520. Investigator:  Robert Kelman.
  13521.  
  13522. Reliability  Management  through  Self-Testing:    We  explore  methods  of
  13523.      achieving ultra-high reliability in systems.  Over long durations simple
  13524.      redundancy ceases  to be  useful and  can actually decrease reliability.
  13525.      This investigation  focuses on  testing as  a means  for assuring a very
  13526.      high degree  of readiness,  in five  areas.   Readiness:  To achieve a
  13527.      high assurance  of health,  a system  must self-test  periodically.  The
  13528.      concept of  readiness includes  traditional and  information-  theoretic
  13529.      aspects of  reliability.   Techniques to  evaluate readiness  are  under
  13530.      study.   Design faults:   As  software testing  progresses, faults are
  13531.      discovered and  corrected, and  several reliability  models  attempt  to
  13532.      describe this  process.   We compare  the effectiveness of these models,
  13533.      and investigate  a  unified  model.    Register-  level  self-testing:
  13534.      Increasing complexity  requires that  testability  be  examined  at  the
  13535.      register-sandwich level.   We  pursue measures  of testability and fault
  13536.      coverage  for  use  in  optimal  design.    High  performance  testable
  13537.      architectures:     High  performance  need  not  be  incompatible  with
  13538.      testability.   We are  investigating a highly testable microarchitecture
  13539.      that  eliminates  the  partition  between  data  and  control,  that  is
  13540.      configurable as  a RISC  or CISC  design, and that shows promise of high
  13541.      performance.   Modeling faults  caused by  aging:   We are  trying  to
  13542.      develop techniques to handle faults from aging of VLSI devices.
  13543. Investigator:  Yashwant Malaiya.
  13544. Sponsor:  Strategic Defense Initiative/Office of Naval Research.
  13545.  
  13546. Software Reliability Management:   We are developing techniques for achiev-
  13547.      ing  software  reliability within  given constraints.     The approaches
  13548.      include achieving accuracy for  reliability  growth models,  development
  13549.      of static models for estimating  defect density and  reliability growth,
  13550.      evaluation of test effectiveness, software testability, relationship  of
  13551.      test coverage based methods.
  13552. Investigator:  Yashwant Malaiya
  13553. Sponsor:  Strategic Defense Initiative/Office of Naval Research.
  13554.  
  13555. Reliability,  Performability  and  Scalability  of  Large-Scale  Distributed
  13556.      Systems:   This project  will investigate  the reliability, scalability
  13557.      and performability  of large-scale distributed systems. As the number of
  13558.      system elements increases, the rate of failure of the system is expected
  13559.      to increase. The research focuses on two issues: the analysis of network
  13560.      reliability and  performability, and  the evaluation  of techniques that
  13561.      can exploit  redundancy in  large-scale systems.   The  resulting higher
  13562.      reliability comes  at the cost of reduced computing power.  We will also
  13563.      investigate  achievable  performance/reliability  tradeoffs  and  system
  13564.      scalability using various redundancy schemes.
  13565. Investigator: Walid Najjar.
  13566. Sponsor: National Science Foundation.
  13567.  
  13568. Evaluation of Adaptive Routing Strategies in Interconnection Networks:  The
  13569.      objectives of  a routing  algorithm are  to provide (1) minimal latency,
  13570.      (2) freedom  from deadlock  and livelock  and (3) tolerance to fault. In
  13571.      this project  we evaluate  the cost  performance  tradeoffs  of  various
  13572.      adaptive routing  algorithms,  both  minimal  and  non-minimal  in  path
  13573.      length.  The   evaluation  is   based  on  statistical  results  derived
  13574.      experimentally from  simulation as  well as  analytical results  derived
  13575.      from queuing models of interconnection networks.
  13576. Investigators: Walid Najjar and Pradip Srimani.
  13577.  
  13578. The Architectures  of Hybrid  von Neumann-Dataflow  Processors:    In  this
  13579.      project we  adopt a  quantitative approach  to  the  evaluation  of  the
  13580.      critical  parameters  that  determine  the  performance  of  hybrid  von
  13581.      Neumann-dataflow processors.  In particular,  we focus  on architectural
  13582.      design alternatives  that permit exploiting instruction, data and stream
  13583.      locality  in  dataflow  graphs  with  minimal  or  no  loss  of  program
  13584.      parallelism.  The   results  indicate  that  a  significant  performance
  13585.      improvement can be obtained by moving the dataflow execution paradigm to
  13586.      a coarser granularity with von Neumann like execution within a grain.
  13587. Investigators: Walid Najjar and Wim Bohm.
  13588. Sponsor: National Science Foundation.
  13589.  
  13590. SISAL:   We have  developed, with  other  research  groups,  an  implicitly
  13591.      parallel programming  language.  We share a common intermediate form and
  13592.      optimizers.   SISAL has  run on  a dataflow machine at the University of
  13593.      Manchester, and  is now  available for  several commercial MIMD systems,
  13594.      on  a multi-vector  processor,  and many  sequential machines.   Current
  13595.      translation software  produces code  that runs  sequentially as  fast as
  13596.      conventional  programs,  and  automatically  yields  efficient  parallel
  13597.      execution on  multiprocessors.   Work continues  on a distributed-memory
  13598.      version based  on a  custom virtual  shared memory  layer.   A successor
  13599.      language version  has been  designed with improved array manipulation, a
  13600.      modern modular  structure, a  refined syntax,  and full  interface  with
  13601.      other languages.
  13602. Investigators:  Rod Oldehoeft and Wim Bohm.
  13603.  
  13604. Static Evaluation  of Sequencing  Constraints:   Sequencing errors  form an
  13605.      important class  of faults  in software.  We can extend static data flow
  13606.      analysis techniques  to detect  violations of  user-specified sequencing
  13607.      constraints.     We  have  constructed  and  are  experimenting  with  a
  13608.      sequencing analysis tool and constraint specification language.
  13609. Investigator: Kurt Olender.
  13610.  
  13611. Network Topology:   Topology  plays an  important role  in the  performance
  13612.      evaluation of  any computer network. The objective of this project is to
  13613.      investigate different  fault tolerance properties and routing algorithms
  13614.      in the  presence of faults.  We examine known topologies and also design
  13615.      new, efficiently incrementable networks.
  13616. Investigator: Pradip Srimani.
  13617.  
  13618. Range Search:   Multiple  attribute key retrieval or multidimensional range
  13619.      searching  has   many  applications  in  database  management,  computer
  13620.      graphics and computational geometry. Several interesting trie structures
  13621.      have been  designed. We  plan to  develop parallel algorithms to improve
  13622.      execution time further. The objective is to develop our understanding of
  13623.      different data structures and algorithms.
  13624. Investigator: Pradip Srimani.
  13625.  
  13626. Distributed Systems:   We are interested in designing fault tolerant mutual
  13627.      exclusion algorithms  and evaluating their performance. Recently we have
  13628.      examined  the  problem  of  deadlock  detection  and  studied  heuristic
  13629.      algorithms for deadlock avoidance.
  13630. Investigator: Pradip Srimani.
  13631.  
  13632. Software Maintenance  Toolkit:   The Ada  Maintenance Toolkit (AMT) project
  13633.      develops algorithms  and  tools  based  on  them  that  facilitate  code
  13634.      changes, based  on fully  incremental analysis.   The AMT includes tools
  13635.      for regression  analysis, metrics,  chunking, and a new approach to user
  13636.      interfaces.   We are  also investigating  ways to preserve a good object
  13637.      oriented  design   during  maintenance.    Lastly,  addition  of  formal
  13638.      semantics will facilitate reverse engineering.
  13639. Investigator:  Anneliese von Mayrhauser.
  13640.  
  13641. Software  Reliability  Simulator:    There  is  much  data  about  software
  13642.      reliability.   Some are available early, during detailed design.  Others
  13643.      are represented  in program structure of higher level languages.  We are
  13644.      building a  simulator  that  takes  these  data  and  predicts  software
  13645.      reliability levels based on them.
  13646. Investigator:  Anneliese von Mayrhauser.
  13647.  
  13648. Performance Evaluation:   Even  simple computer  systems can  require  very
  13649.      large stochastic Petri nets when modeled.  We are investigating possible
  13650.      simplification and  decomposition strategies  that simplify  the  models
  13651.      while preserving a high degree of accuracy.
  13652. Investigator:  Anneliese von Mayrhauser.
  13653.  
  13654. Domain-Based Testing:       SLEUTH is a system that automatically generates
  13655.      scripts, command templates and commands for command driven software.  We
  13656.      are  investigating its  appliation reuse,    regression testing and test
  13657.      management.
  13658. Investigator:  Anneliese von Mayrhauser.
  13659.  
  13660. Automatic Production  of Code  Generators:   Chop is  a system that reads a
  13661.      nonprocedural description of a computer instruction set, generates rules
  13662.      automatically that  specify a  code generator  and a peephole optimizer,
  13663.      and produces  a directly  executable code  generator and optimizer.  The
  13664.      result is  very efficient, executing up to 40 times faster than commonly
  13665.      used comparable  software.  Continuing work includes further speedups of
  13666.      the rewriting  system, application  to non-orthogonal architectures, and
  13667.      integration of a high-quality register allocator.
  13668. Investigator:  Alan Wendt.
  13669.  
  13670. Enhanced Editors:   This  topic includes  program editors  specialized  for
  13671.      version control  and some  business-oriented  applications  such  as  an
  13672.      automated non-WYSIWYG screen record layout system.
  13673. Investigator:  Alan Wendt.
  13674.  
  13675. Genetic  Algorithms:     Genetic   algorithms  are   a  class  of  adaptive
  13676.      optimization procedures  with applications  in function optimization and
  13677.      machine learning.   Several on-going research projects are investigating
  13678.      the fundamental  principles by which these algorithms work with the goal
  13679.      of improving  genetic algorithm  implementations.    Also,  the  use  of
  13680.      genetic algorithms for designing and optimizing neural networks is being
  13681.      investigated.
  13682. Investigator: Darrell Whitley.
  13683. Sponsor: National Science Foundation.
  13684.  
  13685. Applying Genetic Algorithms to Scheduling Problems:  This research is aimed
  13686.      at building  a sequencing  optimization tool  using genetic  algorithms.
  13687.      The work  involves improving  the performance  of genetic  algorithms on
  13688.      classic sequencing  problems such  as the  Traveling Salesman as well as
  13689.      real world scheduling systems.
  13690. Investigator: Darrell Whitley.
  13691. Sponsor: Coors.
  13692.  
  13693. Applying Genetic Algorithms to Geophysical Applications:  There are several
  13694.      problems in  geophysics related  to the  interpretation of  seismic data
  13695.      that involve  the optimization of nonlinear functions which are known to
  13696.      be multimodal.   We  are exploring  the use  of genetic  algorithms  for
  13697.      solving these  problems.   We  are  testing  new  varieties  of  genetic
  13698.      algorithms that dynamically remap hyperspace during search.
  13699. Investigator:  Darrell Whitley.
  13700. Sponsor:  Colorado Advanced Software Institute.
  13701. Collaborators:  Amoco Production Company and Advanced Geophysical.
  13702.  
  13703. Approved: parallel@hubcap.clemson.edu
  13704. Follow-up: comp.parallel
  13705. Path: bounce-back
  13706. Newsgroups: comp.parallel
  13707. Date: Wed, 20 Oct 93 13:49:58 EDT
  13708. From: segall+@cs.cmu.edu (Ed Segall)
  13709. Subject: Re: Help---references to CORDIC algorithm
  13710. Message-ID: <CF7Iuw.Dwz.1@cs.cmu.edu>
  13711. Sender: news@cs.cmu.edu (Usenet News System)
  13712. Nntp-Posting-Host: hummingbird.warp.cs.cmu.edu
  13713. Organization: School of Computer Science, Carnegie Mellon
  13714. References: <1993Oct14.171601.3726@hubcap.clemson.edu>
  13715. Date: Wed, 20 Oct 1993 17:49:42 GMT
  13716.  
  13717. In article <1993Oct14.171601.3726@hubcap.clemson.edu>,
  13718. Shigeru Ishimoto  <ishimoto@jaist.ac.jp> wrote:
  13719. >Dear Grouper,
  13720. >
  13721. >I am looking for the paper on CORDIC algorithm which discovered in the
  13722. >period 1960-1970. The algorithm was discovered again by Dr. Richard Feynman
  13723. >in 1980's.
  13724. >Could anyone give me information.
  13725. >...
  13726.  
  13727. The CORDIC algorithm is presented in Kai Hwang, "Computer Arithmetic,
  13728. Principles, Architecture and Design," John Wiley & Sons, 1979, pp.
  13729. 368-373.  The presentation there is based on Walther, J.S., "A Unified
  13730. Algorithm for Elementary Functions," SJCC, 1971, pp. 379-385.  The
  13731. original paper is Volper, J.E., "The CORDIC Trigonometric Computing
  13732. Technique," IEEE Trans. Elec. Comp., Vol. EC-9, Sept. 1960, pp.
  13733. 227-231.
  13734.  
  13735. --Ed
  13736.  
  13737.  
  13738.  
  13739. Approved: parallel@hubcap.clemson.edu
  13740. Follow-up: comp.parallel
  13741. Path: bounce-back
  13742. Newsgroups: comp.parallel
  13743. From: pcl@oxford.ac.uk (Paul C Leyland)
  13744. Date: 20 Oct 93 19:04:44
  13745. Organization: Oxford University Computing Services, 13 Banbury Rd Oxford OX2 6NN
  13746. Subject: RSA129 project passes 1 million mark
  13747.  
  13748.  
  13749. One million and counting....
  13750.  
  13751. The RSA-129 project has just passed the one million relations mark.
  13752.  
  13753. As of 5am UT, Wednesday 20 October 1993, hot-spare.mit.edu had
  13754. received 1030805 relations.  These are distributed as follows:
  13755.  
  13756.       14263 full relations (fuls)
  13757.      182353 partial relations (pars)
  13758.      834189 double partial relations (pprs).
  13759.  
  13760. The full relations are usable as they stand.  The pars and pprs have
  13761. to be further processed to find cycles.  So far, we have 1679 cycles.
  13762.  
  13763. When the sum of the fulls and the cycles reach 524400 we are almost
  13764. done.  A few hours work on a workstation, followed by some heavy
  13765. crunching on a MasPar and we will know the Ultimate Answer (and I will
  13766. be most upset if it turns out to be 42 :-)
  13767.  
  13768. The number of cycles might seem to be disappointingly small.  However,
  13769. the number of cycles per par and per ppr grows quadratically with the
  13770. number of relations collected.  We had fewer than 100 cycles in from
  13771. the first 250k relations; we now have 20 times as many cycles from
  13772. only four times as many relations.
  13773.  
  13774. Because we still have relatively few cycles, it is difficult to give
  13775. an accurate estimate of how much further we have to go.  However, I
  13776. can give a guestimate which won't be too far out.  We know from
  13777. previous large-scale runs of MPQS, that the final total consists of
  13778. about 20% fulls and 80% cycles.  As we need something over half a
  13779. million altogether, we can divide the number of cycles by one
  13780. thousand, and call that the percentage completion.  Accordingly, my
  13781. best estimate is that we are about 14% done.
  13782.  
  13783. As more machines come on-stream, we are collecting more and more
  13784. relations per day.  During October, we have averaged 24247 relations
  13785. per day, with a peak of 31162 last Sunday.  Machines tend to be more
  13786. idle at the weekend; this shows up quite clearly in our statistics.
  13787. It is difficult to determine exactly how many machines are
  13788. contributing; certainly many hundreds.  Even more would be nice, of
  13789. course!  What I can say is that we have allocated over 9000 UIDs so far.
  13790.  
  13791. The following is also very rough and ready.  My DEC 5000/25 generates
  13792. one relation per 1100 seconds on average, and is rated at 15MIPS or
  13793. so.  Therefore, 24000 relations per day corresponds to an *average*
  13794. compute power of 4600MIPS.  That's a powerful supercomputer by most
  13795. people's standards.  Almost all of this computation comes from machine
  13796. time that would otherwise go to waste.
  13797.  
  13798.  
  13799. So, a big thank you to everyone who has contributed to the project so
  13800. far.  Your help is much appreciated.  Anyone reading this who has not
  13801. joined in yet, is invited to send email to rsa129-info@iastate for
  13802. more information.  All you need is a Unix box with at least 8Mb of
  13803. memory, some idle cputime, and a desire to join in the largest single
  13804. computation currently taking place anywhere on the Internet.
  13805.  
  13806. Paul Leyland
  13807.  
  13808. --
  13809. Paul Leyland <pcl@oxford.ac.uk>          | Hanging on in quiet desperation is
  13810. Oxford University Computing Service      |     the English way.
  13811. 13 Banbury Road, Oxford, OX2 6NN, UK     | The time is gone, the song is over.
  13812. Tel: +44-865-273200  Fax: +44-865-273275 | Thought I'd something more to say.
  13813. Finger pcl@black.ox.ac.uk for PGP key    |
  13814.  
  13815. Approved: parallel@hubcap.clemson.edu
  13816. Follow-up: comp.parallel
  13817. Path: bounce-back
  13818. Newsgroups: comp.parallel
  13819. From: Csaba Zoltani (ACISD|CTD|CMB) <zoltani@BRL.MIL>
  13820. Subject:  PPL
  13821.  
  13822.  
  13823. Reference is made to the recent announcement in comp.parallel about PPL.
  13824. We would be interested to know where the information is published and/or
  13825. can the articles be downloaded electronically?
  13826.  
  13827. Thank you for your reply in advance.
  13828.  
  13829. Approved: parallel@hubcap.clemson.edu
  13830. Follow-up: comp.parallel
  13831. Path: bounce-back
  13832. Newsgroups: comp.parallel
  13833. From: wuchang@adirondacks.eecs.umich.edu (Wu-chang Feng)
  13834. Subject: Paragon sources
  13835. Date: 20 Oct 1993 19:50:13 GMT
  13836. Organization: University of Michigan EECS Dept., Ann Arbor, MI
  13837. Nntp-Posting-Host: adirondacks.eecs.umich.edu
  13838.  
  13839. I'm looking for references on Intel's Paragon.  In particular, how the
  13840. communication subsystem has been built.  
  13841. Thanks
  13842.  
  13843. Approved: parallel@hubcap.clemson.edu
  13844. Follow-up: comp.parallel
  13845. Path: bounce-back
  13846. Newsgroups: comp.parallel
  13847. From: marco@socrates.et.tudelft.nl (M. van Harsel)
  13848. Subject: [REQ] Graph Partitioning using genetic algorithms
  13849. Keywords: Graph Partitioning, genetic algorithms
  13850. Organization: Delft University of Technology, Dept. of Electrical Engineering
  13851.  
  13852. Dear Collegues,
  13853.  
  13854. I am looking for references on Graph Partitioning using genetic algorithms.
  13855. I already have all references on Talbi.El-Ghazali and Gregor von Laszewski.
  13856.  
  13857. Any contribution will help.
  13858.  
  13859. If you are interested, I will post a summary to the newsgroup.
  13860.  
  13861. Thanks in advance,
  13862.  
  13863. Marco van Harsel,  e-mail :  marco@duteca.et.tudelft.nl
  13864. Approved: parallel@hubcap.clemson.edu
  13865. Follow-up: comp.parallel
  13866. Path: bounce-back
  13867. Newsgroups: comp.parallel
  13868. Subject: Re: Parallel Fourier transforms
  13869. From: scott@cannon.usu.edu (Scott Cannon)
  13870. Reply-To: scott@cannon.usu.edu
  13871. References: <1993Oct11.154829.27087@hubcap.clemson.edu>
  13872.  
  13873.  
  13874. I may not completely understand the question but here is a simply answer:  The FFT is inherently parallel -- an array of size 2^N can simply be broken into two halves -- the points with even indexes and those with odd indexes.  Each half can then be transformed using a standard FFT.  The results can then be combined to produce the grand transform with one more butterfly.  Any signal-processing text will give you the simple mult/add operations of a butterfly.
  13875.  
  13876. Naturally, each half could further be broken into two halves and so on... That is actually the basis of the FFT.  At the lowest level, a 2-pt transform is simple: If the input array is (f0, f1) then the transform is F0 = (f0+f1), F1 = (f0-f1).  Combining these many 2-pt transforms into larger transforms is the job of the butterfly stage -- one stage for each next combination of halves.  That is why the FFT requires an array size which is a power of 2.
  13877.  
  13878. Scott R. Cannon, PhD        scott@cannon.cs.usu.edu
  13879. Dept. of Computer Science    (801) 750-2015
  13880. Utah State Univ.        FAX (801) 750-3265
  13881. Logan, UT.  84322-4205
  13882.  
  13883.  
  13884.  
  13885. Approved: parallel@hubcap.clemson.edu
  13886. Follow-up: comp.parallel
  13887. Path: bounce-back
  13888. Newsgroups: comp.parallel
  13889. From: paprzycki_m@gusher.pb.utexas.edu
  13890. Subject: Call for Papers
  13891.  
  13892. Dear Netters,
  13893.  
  13894. If you are interested in giving your company or your work more visibility
  13895. behind a former iron curtain, or if you wish to contribute to the growth
  13896. of our European colleagues'journal, please consider a submission to the
  13897. following Special Issue.
  13898. ----------------------------------------------------------------------------
  13899.  
  13900.  
  13901.  
  13902.                          CALL FOR PAPERS
  13903.  
  13904.             DISTRIBUTED AND PARALLEL REAL TIME SYSTEMS
  13905.                    Special Issue of INFORMATICA
  13906.  
  13907.  
  13908.                          Guest Editors:
  13909.                Marcin Paprzycki and Janusz Zalewski
  13910.                  University of Texas-Permian Basin
  13911.  
  13912.  
  13913. We would like to invite papers for the Special Issue of INFORMATICA,
  13914. An International Journal of Computing and Informatics published in English 
  13915. by the Slovene Society Informatika and the Josef Stefan Institute 
  13916. in Ljubjana, Slovenia.
  13917.  
  13918. The scope of the volume will encompass a variety of issues associated
  13919. with the recent developments in the area of distributed and parallel
  13920. real-time computing.  Papers related to both hardware and software aspects
  13921. of concurrency will be considered.  Their focus should be on the timeliness
  13922. and responsiveness issues (bounded response time) of respective solutions.
  13923. Sample topics may include:
  13924.  
  13925. - multiprocessor buses and architectures
  13926. - real time features of local area networks
  13927. - message scheduling in distributed systems
  13928. - distributed and parallel operating systems
  13929. - task allocation and load balancing in real time
  13930. - interprocess synchronization and communication for real time
  13931. - specification and programming languages
  13932. - formal methods in specification and design
  13933. - debugging of distributed real-time systems
  13934. - designing parallel and distributed applications
  13935. - distributed real-time databases
  13936. - dependability, realiability and safety in distributed real-time systems
  13937. - standardization.
  13938.  
  13939. Only previously unpublished work will be accepted for the volume. 
  13940. All papers will be refereed.  
  13941.  
  13942. Due dates:
  13943.  
  13944. *   February 15, 1994         Submission deadline
  13945. *   May 1, 1994            Notification of the authors
  13946. *   June 1, 1994        Camera-ready versions due
  13947.  
  13948. All correspondence and requests for sample copies of INFORMATICA
  13949. should be addressed to the Guest Editors at the following address:
  13950.  
  13951. Marcin Paprzycki and Janusz Zalewski
  13952. Dept. of Computer Science
  13953. University of Texas-Permian Basin
  13954. 4901 E. University Blvd
  13955. Odessa, TX 79762-0001
  13956. USA
  13957. Phone:    (915)367-2310
  13958. Fax:    (915)367-2115
  13959. Email:    paprzycki_m@gusher.pb.utexas.edu
  13960.     zalewski_j@utpb.pb.utexas.edu
  13961. ----------------------------------------------------------------------------
  13962. Note.  Prospective authors may be also interested in a topical event:
  13963.        The Second Workshop on Parallel and Distributed Real-Time Systems,
  13964.        April 28-29, 1994, Cancun, Mexico.  For information on the workshop,
  13965.        please contact its Program Chairs:
  13966.        Dieter K. Hammer, Technische Universiteit Eindhoven
  13967.             wsindh@win.tue.nl
  13968.        Lonnie R. Welch, New Jersey Institute of Technology
  13969.             welch@vienna.njit.edu
  13970. ----------------------------------------------------------------------------
  13971.  
  13972. Approved: parallel@hubcap.clemson.edu
  13973. Follow-up: comp.parallel
  13974. Path: bounce-back
  13975. Newsgroups: comp.parallel
  13976. From: K.S.Thomas@ecs.soton.ac.uk (Ken Thomas)
  13977. Subject: Comett Course
  13978. Date: 21 Oct 1993 09:14:34 +0100
  13979. Organization: Electronics and Computer Science, University of Southampton
  13980. Keywords: Parallel Applications
  13981.  
  13982.  
  13983. Applications for High Performance Computers
  13984. Soultz, France
  13985. Date:    November 2nd, 3rd, 4th and 5th, 1993
  13986.  
  13987. Nov 2nd-5th, 1993
  13988.  
  13989. The aim of this course is to understand some aspects of current applications of
  13990. high performance computers.
  13991.  
  13992. There are three main objectives:
  13993. 1.  To give an overview of parallel hardware and software and to explore the
  13994.     role of performance critical parameters. Matrix kernels are also explored.
  13995.  
  13996. 2.  To give awareness of the tools that are likely to be important in the future.
  13997.     This includes HPF (High performance Fortran) and the message passing standards.
  13998.  
  13999. 3.  To put together applications in diverse areas of science and engineering. 
  14000.     There are speakers on seismic modelling, CFD, Structural Analysis, Molecular
  14001.     dynamics and climate modelling.
  14002.  
  14003. Programme.
  14004.  
  14005. Day 1    14.00 Start Introduction and Welcome        
  14006.     Session 1    Overview
  14007.             Introduction to Parallel Hardware
  14008.             Introduction to Parallel Software 
  14009.             Panel Discussion
  14010.  
  14011. Day 2    Start 09.30
  14012.     Session 2    Performance Characterization
  14013.             Low-level Benchmarks and Performance Critical Parameters
  14014.             CFD                           
  14015.     Session 3    Applications I
  14016.             Seismic Modelling
  14017.             Climate Modelling 
  14018.             Panel Discussion
  14019.  
  14020. Day 3    Start 9.30
  14021.     Session 4    HPC Standards
  14022.             HPF
  14023.             Message-Passing Interface
  14024.             
  14025.     Session 5    Parallel Matrix Kernels
  14026.             Structural Analysis
  14027.             Panel Discussion
  14028.  
  14029. Day 4    Start 09.00
  14030.     Session 6    The Parkbench Initiative
  14031.             Grand Challenge Applications
  14032.             Panel Discussion.
  14033.     Close 12.15
  14034.  
  14035. Cost  375 pounds sterling (Full Rate)
  14036.       275 pounds sterling for academic participants and members of ACT
  14037.       costs include lunch and refreshments throughout the day.
  14038.  
  14039.  
  14040. Minimum numbers  10
  14041.  
  14042. This course cannot be given unless there is a minimum of 10 participants. 
  14043. It will be necessary to receive the your registration no later than Monday 25th October, 1993.
  14044.  
  14045. Should the course not run, then all registration fees will be returned.
  14046.  
  14047. Applications for High Performance Computers
  14048. Soultz, France
  14049. Date:    November 2nd, 3rd, 4th and 5th, 1993
  14050. Applications for High Performance Computing
  14051.  
  14052. Registration Form
  14053.  
  14054. Title . . . . . . . . . . . . . . . . .
  14055.  
  14056. Surname  . . . . . . . . . . . . . . . . 
  14057.  
  14058. First Name  . . . . . . . . . . . . . . .
  14059.  
  14060. Institution  . . . . . . . . . . . . . . . . . . . . . . . . . . .
  14061.  
  14062.  
  14063. Address  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  14064.  
  14065.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  14066.  
  14067.  
  14068.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  14069.  
  14070.  
  14071.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
  14072.  
  14073.  
  14074. Tel:  . . . . . . . . . . . . . . . .. 
  14075.  
  14076. Fax:  . . . . . . . . . . . . . . . . . 
  14077.  
  14078.  
  14079. I enclose a cheque in the sum of  . . . . . . . . . . . . . . . . . .
  14080.  
  14081.  
  14082. Made Payable to a"University of Southampton".  Please forward cheque and registration to Telmat Informatique.
  14083.  
  14084.  
  14085.  
  14086.  
  14087.  
  14088. Venue:    Telmat Informatique
  14089.     Z.1. - 6 Rue de l'industrie, B P 12
  14090.     68360 Soultz Cedex
  14091.     France
  14092.     
  14093. Local Accommodation Arrangements contact:
  14094.  
  14095.     Rene Pathenay/Francoise Scheirrer
  14096.     Telmat Informatique
  14097.     Tel:  33 89 765110
  14098.     Fax:  33 89 742734
  14099.  
  14100.     Email:  pathenay@telmat.fr
  14101.  
  14102.  
  14103. Approved: parallel@hubcap.clemson.edu
  14104. Follow-up: comp.parallel
  14105. Path: bounce-back
  14106. Newsgroups: comp.parallel, comp.sys.super
  14107. From: Lasse.Natvig@idt.unit.no
  14108. Subject: Computational Science, definitions?
  14109. Message-ID: <LASSE.93Oct21130420@kongle.idt.unit.no>
  14110. Organization: /home/garm/a/lasse/.organization
  14111.  
  14112. At the University of Trondheim, Norway, we are planning to build an
  14113. educational programme in the field "computational science". (Other
  14114. terms may be supercomputing, or scientific computing). As a start, we
  14115. want to define the field, and study other programmes in this
  14116. direction.
  14117.  
  14118. In this context I would appreciate all kind of pointers to relevant
  14119. definitions, and information about educational programmes. Pointers to
  14120. important research institutions are also relevant.
  14121.  
  14122. If there are interest in it, I will post a summary to the net.
  14123.  
  14124. Thanks in advance.
  14125.  
  14126. Lasse Natvig
  14127. Associate Professor
  14128. The Norwegian Institute of Technology
  14129. The University of Trondheim 
  14130.  
  14131. Postal Address:                    E-mail: lasse@idt.unit.no
  14132.   Lasse Natvig                      
  14133.   UNIT/NTH-IDT                        Fax: +47 7 594466
  14134.   O. S. Bragstads plass 2E          Phone: +47 7 593685
  14135.   N--7034 Trondheim, NORWAY
  14136.  
  14137.  
  14138.  
  14139. Approved: parallel@hubcap.clemson.edu
  14140. Follow-up: comp.parallel
  14141. Path: bounce-back
  14142. Newsgroups: comp.parallel
  14143. From: I Flockhart <ianf@epcc.edinburgh.ac.uk>
  14144. Subject: parallelising out of core global image processing operations
  14145. Keywords: Parallelisation Image Processing
  14146. Organization: Edinburgh Parallel Computing Centre
  14147.  
  14148. I'm currently looking into the parallelisation of global and/or 
  14149. non-regular (3d) image processing operations, where the images concerned   
  14150. do not fit into distributed core memory.  A typcial example might be the
  14151. Fourier transform.
  14152.  
  14153. I'm interested in collecting references for any literature that may help 
  14154. with this topic, and also to hear from anyone who has worked on similar
  14155. problems in the past.
  14156.  
  14157. If you can assist with either a reference or the benefit of experience,
  14158. please email me directly at:
  14159.         ianf@epcc.ed.ac.uk
  14160.  
  14161. I'll collate any references I get and post them back to comp.parallel at        
  14162. a later date.
  14163.  
  14164. Thanks
  14165.    
  14166. Ian
  14167.  
  14168.  ---------------------------------------------------------------------- 
  14169. |      e|p     Edinburgh Parallel Computing Centre                     |
  14170. |      c|c     University of Edinburgh                                 |
  14171.  ----------------------------------------------------------------------
  14172.  
  14173.  
  14174. Approved: parallel@hubcap.clemson.edu
  14175. Follow-up: comp.parallel
  14176. Path: bounce-back
  14177. Newsgroups: comp.parallel
  14178. From: heinze@ira.uka.de (Ernst A. Heinz)
  14179. Subject: Modula-2* Environment paper (updated version) available by anonymous 
  14180.          ftp
  14181. Organization: University of Karlsruhe, FRG
  14182. Keywords: Modula-2*, portable parallel programming environment,
  14183.           optimizing compilation, high-level parallel debugging
  14184.  
  14185. For all interested folks we have now made the final version of our
  14186. MPPM'93 paper publicly available by anonymous ftp. The title of the
  14187. paper reads as follows:
  14188.  
  14189. "The Modula-2* Environment for Parallel Programming"
  14190. (by S.U. Haenssgen, E.A. Heinz, P. Lukowicz, M. Philippsen, and W.F. Tichy).
  14191.  
  14192. To retrieve PostScript or compressed Postscript versions of the paper
  14193. please connect to i41s10.ira.uka.de [129.13.13.110] by anonymous ftp.
  14194. There, the directory pub/m2s contains the corresponding files named
  14195. mppm93.ps and mppm93.ps.Z.
  14196.  
  14197. -rw-r-----   1 ftp      ftp        557329 Oct 21 15:27 mppm93.ps
  14198. -rw-r-----   1 ftp      ftp        135382 Oct 21 15:27 mppm93.ps.Z
  14199.  
  14200. Don't forget to use binary mode when retrieving the compressed
  14201. PostScript versions! Please send us a short email containing your full
  14202. name and address plus affiliation if you retrieve any of the above.
  14203.  
  14204. For your information we include the abstract of our MPPM'93 paper below.
  14205.  
  14206. --------------------------------------------------------------------------------
  14207.  
  14208. THE MODULA-2* ENVIRONMENT FOR PARALLEL PROGRAMMING
  14209.  
  14210. This paper presents a portable parallel programming environment for Modula-2*,
  14211. an explicitly parallel machine-independent extension of Modula-2. Modula-2*
  14212. offers synchronous and asynchronous parallelism, a global single address space,
  14213. and automatic data and process distribution. The Modula-2* system consists of a
  14214. compiler, a debugger, a cross-architecture make, graphical X Windows control
  14215. panel, runtime systems for different machines, and sets of scalable parallel
  14216. libraries.  The existing implementation targets the MasPar MP series of massively
  14217. parallel processors (SIMD), the KSR-1 parallel computer (MIMD), heterogeneous
  14218. LANs of workstations (MIMD), and single workstations (SISD).
  14219.  
  14220. The paper describes the important components of the Modula-2* environment and
  14221. discusses selected implementation issues.  We focus on how we achieve a high
  14222. degree of portability for our system, while at the same time ensuring efficiency.
  14223.  
  14224. --------------------------------------------------------------------------------
  14225.  
  14226. In case of any questions or problems, please don't hesitate to contact us
  14227. directly.
  14228.  
  14229. Cheers.
  14230.  
  14231. =Ernst=
  14232.  
  14233. +--------------------------------------------------------+-------------------+
  14234. | Ernst A. Heinz              (email: heinze@ira.uka.de) |                   |
  14235. | Institut fuer Programmstrukturen und Datenorganisation | Make it as simple |
  14236. | Fakultaet fuer Informatik, Universitaet Karlsruhe      | as possible, but  |
  14237. | Postfach 6980, D-76128 Karlsruhe, F.R. Germany         | not simpler.      |
  14238. | (Voice: ++49/(0)721/6084386, FAX: ++49/(0)721/694092)  |                   |
  14239. +--------------------------------------------------------+-------------------+
  14240.  
  14241. Newsgroups: comp.parallel,comp.sys.super
  14242. From: stevehubcap.clemson.edu (Steve Stevenson-``Not the Moderator'') 
  14243. Subject: Re
  14244. Approved: parallel@hubcap.clemson.edu
  14245.  
  14246. > At the University of Trondheim, Norway, we are planning to build an
  14247. > educational programme in the field "computational science". (Other
  14248. > terms may be supercomputing, or scientific computing). As a start, we
  14249. > want to define the field, and study other programmes in this
  14250. > direction.
  14251. > In this context I would appreciate all kind of pointers to relevant
  14252. > definitions, and information about educational programmes. Pointers to
  14253. > important research institutions are also relevant.
  14254.  
  14255. Available via ftp is a preprint of an article to appear in the CACM
  14256. on this subject. It is one viewpoint, but it includes philosohical
  14257. justification as well as the things we do here at Clemson and in an
  14258. NSF Workshop.
  14259. ============================================================
  14260. $ ftp hubcap.clemson.edu
  14261. Connected to hubcap.clemson.edu.
  14262. 220 hubcap FTP server (Ultrix Version 4.1 Mon Aug 27 12:10:05 EDT 1990) ready.
  14263. Name (hubcap:): ftp
  14264. 331 Guest login ok, send ident as password.
  14265. Password: <your name and institution>
  14266.  
  14267. 230 Guest login ok, access restrictions apply.
  14268.  
  14269. ftp> cd destv
  14270. ftp> bin
  14271. ftp> CACM-revised.ps.Z
  14272. =============end of instructions===================================
  14273.  
  14274. Steve (really "D. E.") Stevenson           steve@hubcap.clemson.edu
  14275. Department of Computer Science,            (803)656-5880.mabell
  14276. Clemson University, Clemson, SC 29634-1906
  14277. Wanted: Sterbetz, P. Floating Point Computation
  14278. Approved: parallel@hubcap.clemson.edu
  14279. Follow-up: comp.parallel
  14280. Path: bounce-back
  14281. Newsgroups: comp.parallel
  14282. From: sson@nevada.et.byu.edu (Stacey Son)
  14283. Organization: Brigham Young University, Provo UT USA
  14284. Newsgroups: comp.parallel
  14285. Subject: Re: Any good simulators
  14286. Reply-To: sson@byu.edu
  14287. References: <1993Oct15.121123.29739@hubcap.clemson.edu>
  14288.  
  14289. >>>>> On Fri, 15 Oct 1993 12:11:23 GMT, leclerc@cis.ohio-state.edu (Anthony Leclerc) said:
  14290.  
  14291. Tony> I'm teaching an "Architecture of Advanced Computer Systems" course in
  14292. Tony> the
  14293. Tony> Spring semester.  Does anyone know of good simulators which are
  14294. Tony> publically
  14295. Tony> avaiable?
  14296.  
  14297. Try the following:
  14298.  
  14299. (1) Proteus from mintaka.lcs.mit.edu.  Proteus is an execution-driven
  14300. simulator that runs on MIPS and SPARC based machines.
  14301.  
  14302. (2) dlxmsim from ftp.cc.gatech.edu.  dlxmsim is a multiprocessor
  14303. emulator based on the DLX instruction set.
  14304.  
  14305. (3) Tango from Stanford.  Tango is like Proteus.  To get it you must
  14306. get a license first.  Send mail to comments@meadow.stanford.edu for
  14307. more information or ftp to meadow.stanford.edu.
  14308.  
  14309. (4) For a superscalar simulators try superdlx from wally.cs.mcgill.ca
  14310. or Mike Johnson's PIXIE based stuff from velox.stanford.edu.
  14311.  
  14312. Hope this helps,
  14313.  
  14314. --
  14315. Stacey D. Son                           Pmail: 459 Clyde Building      
  14316. CAEDM Operations Manager                       Provo, UT 84602
  14317. Brigham Young University                Voice: (801)378-5950
  14318. College of Engineering & Technology     FAX:   (801)378-5705               
  14319. Office: 306A Clyde Building             Email: sson@byu.edu 
  14320.  
  14321. Approved: parallel@hubcap.clemson.edu
  14322. Follow-up: comp.parallel
  14323. Path: bounce-back
  14324. Newsgroups: comp.parallel
  14325. From: west@jade.ab.ca (Darrin West)
  14326. Subject: 65 processor Meiko for sale.
  14327. Message-ID: <1993Oct21.233844.3378@jade.ab.ca>
  14328. Organization: Jade Simulations International, Inc.
  14329. Date: Thu, 21 Oct 1993 23:38:44 GMT
  14330.  
  14331.  
  14332.  
  14333. We have some Meiko equipment for sale.  The backplanes may be more valuable
  14334. than the boards, in that it may support newer boards (can anyone comment
  14335. on this?).
  14336.  
  14337. This may be the perfect system for a university wanting to have a large
  14338. number of nodes for experimentation, without the need for the most powerful
  14339. cpu's.  The cpu's in this box are around 1 Vax mips.
  14340.  
  14341. 1 M40/M40 Enclosure - holds up to 40 boards
  14342. 1 M10/M10E Enclosure - holds up to 10 boards
  14343.  
  14344. 9 MK060 Quad compute Element with 4MBytes per processor
  14345. 3 MK060 W/ 4cpu 8MBytes per cpu.
  14346. 1 MK061 Single compute Element with 16MBytes per processor
  14347. 1 MK014
  14348. 1 MK28
  14349. 1 MK050 Self host with SCSI
  14350.  
  14351. 1 MK201 In-sun Quad compute element with 4MBytes per processor
  14352. 1 MK200 In-sun Quad compute element with 4MBytes per processor
  14353. 2 MK20? In-sun Quad compute element with 4MBytes per processor
  14354.  
  14355. Various Operating Software
  14356.  
  14357. This is a total of 65 processors, and tons of memory on little SIMS.
  14358.  
  14359.  
  14360. We currently have this equipment attached to three different suns (one of
  14361. them with no external cabinet).  There may be the option of selling one
  14362. of our sun3/160's with this equipment.  It has several slots for the
  14363. in-sun boards, which are needed to attach to the external cabinets.  I
  14364. dont recall ever having both cabinets hooked to the same sun, but that
  14365. may be possible.
  14366.  
  14367. We used CSTOOLS exclusively, and convinced a version of sun's C++ cfront to
  14368. produce C code that the meiko compilers would accept.
  14369.  
  14370.  
  14371. We will entertain practically any serious offer.  Please feel free to get
  14372. hold of me if you want details.
  14373.  
  14374.  
  14375. I apologize if this post breaks the net rules.  I dont have access to any
  14376. groups that specialize in selling things, and I would likely want to cross-post
  14377. here in any case.  I sincerely hope that this system could be put to good use
  14378. in a research environment somewhere.  Maybe there is still some commercial
  14379. use for this stuff too.
  14380.  
  14381.  
  14382. Thanks for perusing this note.
  14383. -- 
  14384. Darrin West, MSc.
  14385.   Jade Simulations International Corporation. west@jade.ab.ca
  14386.  
  14387. Approved: parallel@hubcap.clemson.edu
  14388. Follow-up: comp.parallel
  14389. Path: bounce-back
  14390. Newsgroups: comp.parallel
  14391. From: Wittmann@sunmail.lrz-muenchen.de
  14392. Subject: Classification of parallel algorythms
  14393. Organization: Technische Universitaet Muenchen
  14394.  
  14395.   I'm trying to classify parallel algorithms.
  14396.   Especially I'm interested in their characteristial
  14397.   SVM-properties (Shared Virtual Memory). 
  14398.   Therefor I need some literature about
  14399.   application schemes and classification of algorithms,
  14400.   not only of parallel ones.
  14401.  
  14402.   If you know any literature dealing with this subject,
  14403.   please mail
  14404.   
  14405.      wittmann@informatik.tu-muenchen.de
  14406.  
  14407.   Thanks for your help
  14408.  
  14409.  
  14410. Approved: parallel@hubcap.clemson.edu
  14411. Follow-up: comp.parallel
  14412. Path: bounce-back
  14413. Newsgroups: comp.parallel
  14414. From: icw@ecs.soton.ac.uk (I C Wolton)
  14415. Subject: RAPS Workshop
  14416. Organization: Electronics and Computer Science, University of Southampton
  14417.  
  14418.                RAPS Open Workshop on Parallel Benchmarks
  14419.                         and Programming Models
  14420.  
  14421.            Chilworth Manor Conference Centre, Southampton, UK
  14422.  
  14423.                            7-8 Dec 1993
  14424.  
  14425.  
  14426.  
  14427. Workshop Overview
  14428. -----------------
  14429.  
  14430. This workshop will review recent developments in programing models for
  14431. parallel applications, outline the features of some of the RAPS parallel
  14432. benchmarks and present some complementary international initiatives. 
  14433. The final session will give the vendors an opportunity to
  14434. present the results of the RAPS benchmarks on their latest machines.
  14435.  
  14436.  
  14437.  
  14438. The RAPS Consortium
  14439. -------------------
  14440.  
  14441. The RAPS consortium was put together to promote the creation
  14442. of benchmarks for important production applications on massively-parallel
  14443. computers (RAPS stands for Real Applications on Parallel Systems). 
  14444. As part of this activity it has a strong interest in adopting a 
  14445. programming model that can provide portability without excessive
  14446. sacrifice of performance. The consortium consists of a number of
  14447. users and developers of significant large production codes running
  14448. on supercomputers. It is supported by a Consultative Forum
  14449. of computer manufacturers which currently includes Convex, Cray,
  14450. Fujitsu, IBM, Intel and Meiko.
  14451.  
  14452. Codes being worked on for the RAPS benchmark suite include:
  14453.  
  14454. PAM-CRASH  - a finite element code mainly used for car crash simulations 
  14455.                   
  14456. IFS/ARPEGE - a global atmospheric simulation code used for meteorology
  14457.              and climatology 
  14458.  
  14459. FIRE       - a fluid flow code used for automotive flow simulations 
  14460.  
  14461. GEANT      - used by CERN to simulate the interaction of high-energy
  14462.              particle showers with detectors 
  14463.  
  14464.  
  14465.  
  14466. Provisional Programme
  14467. ---------------------
  14468.  
  14469. The workshop will be held over two days, starting after lunch on
  14470. Tuesday 7th December and finishing at lunchtime on Wednesday 8th
  14471. December. Lunch will be available on both days. 
  14472.  
  14473.  
  14474. Tuesday 7 Dec, Afternoon
  14475.  
  14476.  
  14477.        Current status of RAPS
  14478.        Karl Solchenbach, PALLAS
  14479.  
  14480.        ESPRIT Application porting activities
  14481.        Adrian Colebrook, Smith, Guildford
  14482.  
  14483.        The PAMCRASH benchmark
  14484.        Guy Lonsdale, ESI 
  14485.  
  14486.        The Proposed Message Passing Interface Standard (MPI)
  14487.        Ian Glendinning, University of Southampton
  14488.  
  14489.        Distributed Fortran Compiler Techniques
  14490.        Thomas Brandes, GMD 
  14491.  
  14492.        Impact of Cache on Data Distribution
  14493.        Richard Reuter, IBM Heidelberg
  14494.  
  14495.  
  14496. Workshop Dinner
  14497.  
  14498.  
  14499. Wed 8 Dec, Morning
  14500.  
  14501.         The PEPS Benchmarking Methodolgy
  14502.         Ed. Brocklehurst, National Physical Laboratory
  14503.  
  14504.         The PARKBENCH Initiative
  14505.         T. Hey, University of Southampton
  14506.  
  14507.         The IFS spectral model: the 3D version with some preliminary results
  14508.         David Dent, ECMWF
  14509.  
  14510.         Vendor's Presentation of Results for the RAPS Benchmarks
  14511.  
  14512.  
  14513. Registration Details
  14514. --------------------
  14515.  
  14516. The registration fee is 120 pounds sterling, including lunch and refreshments.
  14517.  
  14518. An optional workshop dinner is being arranged at 25 pounds per head.
  14519.  
  14520. Accomodation is available at Chilworth Manor for 52.50 pounds per night.
  14521.  
  14522.  
  14523. Cheques should be made payable to "University of Southampton"
  14524.  
  14525. Bookings and enquiries to:
  14526.  
  14527.  
  14528. Chris Collier
  14529. Electronics & Computer Science
  14530. Highfield
  14531. University of Southampton
  14532. Southampton S09 5NH                          
  14533.  
  14534. Tel: +44 703 592069                            
  14535. Fax: +44 703 593045                           
  14536. Email: cdc@ecs.soton.ac.uk 
  14537.  
  14538.  
  14539.  
  14540. This form should be returned to the conference organiser, Chris Collier.
  14541.  
  14542. Name  .......................................................
  14543.  
  14544. Organisation  ...............................................
  14545.  
  14546. Address  ....................................................
  14547.  
  14548.          ....................................................
  14549.  
  14550. Telephone  ..................................................
  14551.  
  14552. Email  ......................................................
  14553.  
  14554.  
  14555. Special Dietary Requirements ................................
  14556.  
  14557. .............................................................
  14558.  
  14559. Registration (Price in Pounds Sterling) :   50.00
  14560.  
  14561.  
  14562. I would like accomodation at 52.50 pounds per night for the nights of 
  14563.  
  14564. .............................................................
  14565.  
  14566. I would like to attend the workshop dinner at 25 pounds ...... Yes/No
  14567.  
  14568. TOTAL FEE ENCLOSED  ...............................................
  14569.  
  14570.  
  14571.  
  14572.  
  14573.  
  14574.  
  14575.  
  14576.  
  14577. Approved: parallel@hubcap.clemson.edu
  14578. Follow-up: comp.parallel
  14579. Path: bounce-back
  14580. Newsgroups: comp.parallel
  14581. From: mende@rutgers.edu (Bob Mende Pie)
  14582. Subject: nCUBE2S systems programmer job announcement in misc.jobs.offered
  14583. Organization: 40.34N / 74.44W +25m Sol 3
  14584.  
  14585.     I wanted to let people here know that this is a job announcement
  14586. for a parallel systems programmer position at Rutgers University CAIP
  14587. Center.  The position will support, and program with a large nCUBE2S system
  14588. as well as a few other types of parallel manchines.  The full text of the
  14589. posting should be available in misc.jobs.offered.
  14590.     Feel free to contact me (mende@caip.rutgers.edu) for more details
  14591. of this position.
  14592.  
  14593.  
  14594.                     /Bob...
  14595. {...}!rutgers!mende      mende@piecomputer.rutgers.edu      mende@zodiac.bitnet
  14596. -- 
  14597.                     /Bob...
  14598. {...}!rutgers!mende      mende@piecomputer.rutgers.edu      mende@zodiac.bitnet
  14599.  
  14600. Approved: parallel@hubcap.clemson.edu
  14601. Follow-up: comp.parallel
  14602. Path: bounce-back
  14603. Newsgroups: soc.college.gradinfo,comp.edu,comp.ai,comp.ai.genetic,comp.ai.neural-nets,comp.software-eng
  14604. From: mmilde@hubcap.clemson.edu (Michael N Milde)
  14605. Subject: Re: Ph.D. fellowships in CS (esp. AI, PP, SE)
  14606. Organization: Clemson University, Clemson SC
  14607. References: <1993Oct21.202255.24974@hubcap.clemson.edu>
  14608.  
  14609. In article <1993Oct21.202255.24974@hubcap.clemson.edu> rro@CS.ColoState.EDU (Rod Oldehoeft) writes:
  14610. >                 PH.D. FELLOWSHIPS AVAILABLE
  14611.  
  14612. [stuff deleted...]
  14613.  
  14614. >4.  You must be a woman or a member of a minority group, or both.
  14615.  
  14616. [stuff deleted...]
  14617.  
  14618. I started reading this with great enthusiasm before I realized they
  14619. discriminate against white males.
  14620.  
  14621. The color of someone's skin doesn't concern me.  I wish other people felt
  14622. the same way...
  14623.  
  14624. Mike
  14625. mmilde@hubcap.clemson.edu
  14626.  
  14627. Approved: parallel@hubcap.clemson.edu
  14628. Follow-up: comp.parallel
  14629. Path: bounce-back
  14630. Newsgroups: comp.parallel
  14631. From: mendes@banjo.cs.uiuc.edu (Celso Luiz Mendes)
  14632. Subject: DLXV simulator needed
  14633.  
  14634. I'm looking for a simulator of DLXV, the vector version of DLX, as
  14635. described in the book "Computer Architecture: A Quantitative Approach",
  14636. by Hennessy & Patterson.
  14637.  
  14638. In fact, any extension of another simulator (like the one for MIPS) to
  14639. a vector architecture would be helpful.
  14640.  
  14641. Thanks in advance for any help or pointers.
  14642.  
  14643. -Celso
  14644.  
  14645. -----------------------------------------------------------------------------
  14646. Celso Luiz Mendes                 Univ. of Illinois at Urbana-Champaign
  14647. E-mail: mendes@cs.uiuc.edu          Dep. Computer Science , DCL-3244
  14648. phone # : (217)333-6561 - office ,  (217)367-7355 - home
  14649.  
  14650.  
  14651. Approved: parallel@hubcap.clemson.edu
  14652. Follow-up: comp.parallel
  14653. Path: bounce-back
  14654. Newsgroups: comp.parallel
  14655. From: rgomez@svarga.inria.fr (Roberto Gomez-Cardenas)
  14656. Subject: SILICON GRAPHICS 4D/35 CHARACTERISTICS
  14657. Sender: news@seti.inria.fr
  14658. Organization: INRIA, Rocquencourt
  14659.  
  14660.  
  14661. Hi everybody;
  14662.  
  14663.    We had implemented and mesured an algorithm in a SUN 4. In a
  14664.    reference we found a table of the CPU time of the same algorithm, 
  14665.    for a Silicon Graphics 4D/35. To make a good comparation
  14666.    we need to known the characteristics of the Silicon 4D/35. 
  14667.  
  14668.    There is anyone that can send me this information?. 
  14669.  
  14670.   Thanks in advance;
  14671.  
  14672.     Roberto Gomez
  14673.  
  14674.  
  14675.     ______________________________________________________________
  14676.    |                                                              |
  14677.    | Roberto GOMEZ CARDENAS                                       |
  14678.    | e-mail: Roberto.Gomez-Cardenas@inria.fr                      |  
  14679.    | fax:  39.63.53.30                  "Imagination is more      |
  14680.    | tel.  39.63.52.38                important than knowledge"   |
  14681.    | INRIA - Rocquencourt                  A. Einstein            |
  14682.    |______________________________________________________________|
  14683.  
  14684. Approved: parallel@hubcap.clemson.edu
  14685. Follow-up: comp.parallel
  14686. Path: bounce-back
  14687. Newsgroups: comp.parallel
  14688. From: chchen@hellcat.ecn.uoknor.edu (Changjiu Chen)
  14689. Subject: How many solutions?
  14690. Organization: Engineering Computer Network, University of Oklahoma, Norman, OK, USA
  14691.  
  14692.  
  14693.   In the following system, x_i is 1 or -1 and w_ij belongs to R.
  14694.  
  14695.     x_1 * ( w_11 + x_2 * w_12 + ... + x_n * w_1n ) > 0
  14696.        .
  14697.        .
  14698.        .
  14699.     x_n * ( x_1 * w_1n + ... + x_(n-1) * w_(n-1)n + w_nn ) > 0.
  14700.  
  14701.   w is symmetric. Based on some given w, one can probably find many solutions
  14702.   of x. My goal is to find the maximum solutions of x associated with some
  14703.   particular w. I already found a specific w which let the system has
  14704.   combination(n,floor[n/2]) solutions of x.
  14705.  
  14706.   Can you prove or disprove that combination(n,floor[n/2]) is the maximum?
  14707.  
  14708.   Any comment is welcomed. Please email me directly.
  14709.  
  14710. Approved: parallel@hubcap.clemson.edu
  14711. Follow-up: comp.parallel
  14712. Path: bounce-back
  14713. Newsgroups: comp.parallel
  14714. Subject: Help: hypercubes and fat trees
  14715. From: Shigeru Ishimoto <ishimoto@jaist.ac.jp>
  14716.  
  14717. Dear Grouper,
  14718.  
  14719. I am looking for the paper on the embedding hypercube in fat tree.
  14720. Could anyone give information.
  14721.  
  14722. Thanks,
  14723. -----
  14724.  _____
  14725.    |  A I S T   Shigeru Ishimoto  (ishimoto@jaist.ac.jp)
  14726.    |  HOKURIKU  18-1 Asahidai Tatsunokuchichou Nomigun Ishikawaken Japan
  14727. o_/   1 9 9 0   Japan Advanced Institute of Science and Technology,Hokuriku
  14728.  
  14729.  
  14730. Approved: parallel@hubcap.clemson.edu
  14731. Follow-up: comp.parallel
  14732. Path: bounce-back
  14733. Newsgroups: misc.jobs.offered,sci.math.num-analysis,comp.parallel
  14734. From: bahendr@cs.sandia.gov (Bruce A. Hendrickson)
  14735. Subject: Postdoc Opening at Sandia Labs
  14736. Organization: Sandia National Laboratories, Albuquerque, NM
  14737.  
  14738.               Applied Mathematical Sciences 
  14739.                   Research Fellowship 
  14740.               Sandia National Laboratories,
  14741.                  Albuquerque, New Mexico 
  14742.  
  14743. The Computational Sciences, Computer Sciences and Mathematics Center
  14744. at Sandia National Laboratories invites outstanding candidates to
  14745. apply for the 1994 Applied Mathematical Sciences (AMS) Research
  14746. Fellowship.  The Fellowship is supported by the Officer of Scientific
  14747. Computing of the U.S. Department of Energy.  AMS Fellowships at
  14748. Sandia provide an exceptional opportunity for innovative research
  14749. in scientific computing on advanced architectures. They are intended
  14750. to promote the transfer of technology from the laboratory research
  14751. environment to industry and academia through the advanced training
  14752. of new computational scientists.  Candidates must be U.S. citizens,
  14753. have recently earned a Ph.D. degree or the equivalent, and have a
  14754. strong interest in advanced computing research.
  14755.  
  14756. The Center maintains strong programs in a variety of areas, including
  14757. analytical and computational mathematics, discrete mathematics and
  14758. algorithms, computational physics and engineering, advanced
  14759. computational approaches for parallel computers, graphics, and
  14760. architectures and languages. Preference will be given to candidates
  14761. applying in the fields of numerical analysis, computational science
  14762. and parallel algorithm development.  Candidates with knowledge of
  14763. an application area (e.g., semiconductor device modeling, CFD,
  14764. climate modeling) are especially encouraged to apply.
  14765.  
  14766. Sandia provides a unique parallel computing environment, including
  14767. a 1,872-processor Intel Paragon, a 1024-processor nCUBE 2, a
  14768. 64-processor Intel IPSC, and two Cray supercomputers.
  14769.  
  14770. The fellowship appointment is for a period of one year and may be
  14771. renewed for a second year.  It includes a highly competitive salary,
  14772. moving expenses, and a generous professional travel allowance.
  14773. Applicants should send a resume, a statement of research goals, and
  14774. three letters of recommendation to:  Robert H. Banks, Division
  14775. 7531-121, Sandia National Laboratories, P.O. Box 5800, Albuquerque,
  14776. NM  87185.  The closing date for applications is January 31, 1994,
  14777. although applications will be considered until the fellowship is
  14778. awarded.  The position will commence during 1994.
  14779.  
  14780. For further information contact Richard C. Allen, Jr., at (505)
  14781. 845-7825 or by e-mail, rcallen@cs.sandia.gov.
  14782.  
  14783. Equal Opportunity Employer M/F/V/H U.S. Citizenship is Required
  14784.  
  14785.  
  14786. Approved: parallel@hubcap.clemson.edu
  14787. Follow-up: comp.parallel
  14788. Path: bounce-back
  14789. Newsgroups: comp.parallel
  14790. From: xfan@bubba.ece.uc.edu (Xianzhi  Fan)
  14791. Subject: References wanted
  14792. Organization: University of Cincinnati
  14793.  
  14794.  
  14795. Hi, All,
  14796.     I would greatly appreciate it if anyone can send me info about 
  14797. where are the references for  Intel Paragon, Sparc Center 1000 and
  14798. Cray-T3D.
  14799.     Regards,
  14800.  
  14801. -- 
  14802.             XianZhi Fan  -+-+-   Mail Location 30
  14803.    xfan@thor.ece.uc.edu  \ --+   Dept. of Electrical & Computer Engr.
  14804.  phone(o):(513)556-0904  \ |_|   University of Cincinnati
  14805.  phone(h):(513)861-3186  / |__/  Cincinnati, OH 45221-0030
  14806.  
  14807. Approved: parallel@hubcap.clemson.edu
  14808. Follow-up: comp.parallel
  14809. Path: bounce-back
  14810. Newsgroups: comp.parallel
  14811. From: mwesth@elaine.ee.und.ac.za (M.J. VAN DER WESTHUIZEN : PGRADS)
  14812. Subject: Computing and Information (Shannon) Theory
  14813. Organization: Elec. Eng., Univ. Natal, Durban, S. Africa
  14814.  
  14815. Hi everybody,
  14816.  
  14817. I have a strong gut feeling that a link must exist between Shannon's 
  14818. Information theory and computing, but cannot find the references nor do I 
  14819. have the time or detailed knowledge to investigate the matter myself.
  14820.  
  14821. How does one match a computing problem to a computer specification in real-
  14822. time applications; if you say MIPs or FLOPS how do compare a 
  14823. look-up table for say, the expansion series calculation of the sine of a 
  14824. floating point value, iow swapping memory for speed?
  14825.  
  14826. If you use parallelism, you have to weigh up communication delays with 
  14827. computing speed ok, so then *communications* and *commputations* must be 
  14828. measurable in the same units.  So can't one use Shannon's indices for 
  14829. measuring the *channel capacity* in terms of Entropy/second as a means of 
  14830. specifying computer power?  Can't the signal/noise ratio of a channel be 
  14831. equated to the computer's accuracy (due to roundoff errors)?  In my research 
  14832. on real-time use of transputer I often am confronted with the difference 
  14833. between computing bandwidth and *speed*, which I find to be very similar to 
  14834. the transmission line specifications of bandwidth and speed, which makes me 
  14835. ask this question.
  14836.  
  14837. Can some of the Theoretical Computer Scientest perhaps help?
  14838.  
  14839. Thank you
  14840.  
  14841.  
  14842. Approved: parallel@hubcap.clemson.edu
  14843. Follow-up: comp.parallel
  14844. Path: bounce-back
  14845. Newsgroups: comp.parallel,comp.sys.transputer
  14846. From: JZHOU@FINABO.ABO.FI (Jun Zhou MATE)
  14847. Subject: Qusetion about matrix in occam?
  14848. Organization: ABO AKADEMI UNIVERSITY, FINLAND
  14849. Date: Sat, 23 Oct 1993 18:29:33 GMT
  14850. X-News-Reader: VMS NEWS 1.24
  14851.  
  14852. Hi Dear Friends:
  14853.  
  14854. Can you recommend some routine about operation of matrix in Occam 2.
  14855. it is about Addition, subtract, mulitiplication and inverse of matrix,
  14856.  
  14857. Thank you for helping!
  14858.  
  14859. Best Wishes
  14860.  
  14861. ---- Jun Zhou
  14862.  
  14863.  
  14864. Approved: parallel@hubcap.clemson.edu
  14865. Follow-up: comp.parallel
  14866. Path: bounce-back
  14867. Newsgroups: comp.parallel
  14868. From: heinze@ira.uka.de (Ernst A. Heinz)
  14869. Subject: Availability of Modula-2* Programming Environment
  14870. Organization: University of Karlsruhe, FRG
  14871. Sender: newsadm@ira.uka.de
  14872.  
  14873. After putting the updated version of our MPPM'93 paper on ftp I received
  14874. several mails asking for the availability of our Modula-2* Programming
  14875. Environment. Because this might be of public interest I now post an answer
  14876. to the net.
  14877.  
  14878. "The Modula-2* people (email: msc@ira.uka.de) at the University of Karlsruhe,
  14879. F.R.G., are currently preparing a new version of their Modula-2* programming
  14880. environment to be publicly released at the end of November. The upcoming
  14881. release will consist of binaries for DECStations and SparcStations. Target
  14882. architectures include the MasPar MP series, the KSR-1, and several sequential
  14883. Unix workstations."
  14884.  
  14885. We will announce the availability of the new version on the net as soon as it
  14886. is ready for public release. So please stay tuned!
  14887.  
  14888. Cheers.
  14889.  
  14890. =Ernst=
  14891.  
  14892. +--------------------------------------------------------+-------------------+
  14893. | Ernst A. Heinz              (email: heinze@ira.uka.de) |                   |
  14894. | Institut fuer Programmstrukturen und Datenorganisation | Make it as simple |
  14895. | Fakultaet fuer Informatik, Universitaet Karlsruhe      | as possible, but  |
  14896. | Postfach 6980, D-76128 Karlsruhe, F.R. Germany         | not simpler.      |
  14897. | (Voice: ++49/(0)721/6084386, FAX: ++49/(0)721/694092)  |                   |
  14898. +--------------------------------------------------------+-------------------+
  14899.  
  14900. Approved: parallel@hubcap.clemson.edu
  14901. Follow-up: comp.parallel
  14902. Path: bounce-back
  14903. Newsgroups: comp.parallel,misc.jobs.offered
  14904. From: tph@beta.lanl.gov (Thomas Hughes)
  14905. Subject: Job Opportunity in Parallel Algorithm Development
  14906. Message-ID: <1993Oct24.025005.26459@newshost.lanl.gov>
  14907. Sender: news@newshost.lanl.gov
  14908. Organization: Mission Research Corporation
  14909. Date: Sun, 24 Oct 1993 02:50:05 GMT
  14910.  
  14911.  
  14912.            Job Opportunity in Parallel Algorithm Development
  14913.  
  14914. Mission Research Corporation, Albuquerque, is seeking a highly
  14915. motivated individual to participate in development of parallel
  14916. algorithms for smoothed particle hydrodynamics on machines such as the
  14917. Paragon and CM-5.  Strong background in numerical methods as evidenced
  14918. by journal publications required. Experience with C and Fortran on
  14919. parallel machines is very desirable. Ph.D. in applied math, physics or
  14920. related area plus 2 or more years of post-doctoral experience is
  14921. preferred, but MS with several years of independent research
  14922. experience will be considered.
  14923.  
  14924. Please mail resumes, with publication/presentation list to :
  14925.  
  14926. Tom Hughes,
  14927. Mission Research Corp.,
  14928. 1720 Randolph, SE,
  14929. Albuquerque, NM 87106
  14930.  
  14931. US citizenship or permanent residence required.
  14932.  
  14933. Approved: parallel@hubcap.clemson.edu
  14934. Follow-up: comp.parallel
  14935. Path: bounce-back
  14936. Newsgroups: comp.parallel
  14937. From: lama@nile.eng.ohio-state.edu (Lama Hamandi)
  14938. Subject: architecture of parallel machines
  14939. Message-ID: <1993Oct24.142414.29625@ee.eng.ohio-state.edu>
  14940. Sender: news@ee.eng.ohio-state.edu
  14941. Organization: The Ohio State University Dept of Electrical Engineering
  14942. Date: Sun, 24 Oct 1993 14:24:14 GMT
  14943.  
  14944. Hello fellow netters,
  14945.  
  14946.  I am looking for some references on the detailed architecture of some
  14947.  parallel machines and their corresponding processors.
  14948.  I am interested in the Delta, Paragon, Cray C-90 (and any newer version
  14949.  of the Cray family!) and the Sigma machine.
  14950.  If you know of any papers, reports or books please post them on the net
  14951.  or email me: lama@ee.eng.ohio-state.edu
  14952.  
  14953.  Thanks
  14954.  lama
  14955.  
  14956.  
  14957. Approved: parallel@hubcap.clemson.edu
  14958. Follow-up: comp.parallel
  14959. Path: bounce-back
  14960. Newsgroups: comp.parallel
  14961. From: abw@maths.uq.oz.au (Alan Williams)
  14962. Subject: Re: The Future of Parallel Computing
  14963. Organization: Prentice Centre, University of Queensland
  14964. References: <1993Oct14.131912.9126@hubcap.clemson.edu> <1993Oct19.154929.15823@hubcap.clemson.edu>
  14965. dbader@eng.umd.edu (David Bader) writes:
  14966.  
  14967. >   Is the same true for the emergence of parallel computing?  In my
  14968. >opinion, no.  We have not ground out a "standard" representation for
  14969. >the model of parallel computing.  We have not put enough effort into
  14970. >the theory of parallel algorithmics.  Throwing faster hardware at us
  14971. >will not solve the problem. Even if the benchmark time for a given
  14972. >application is cut in half, what happens as we try to increase the
  14973. >problem size by a factor of K ? The compiler then must have the task
  14974. >of decomposing the algorithm onto the underlying hardware.  It is just
  14975. >wrong to require the programmer to have a detailed knowledge of the
  14976. >hardware, data layout, and compiler tricks just to get anywhere near
  14977. >"benchmarked" performance rates.
  14978.  
  14979. I think you're expecting too much from the compiler writers. There are
  14980. so many paradigms (sp?) for parallel computing it would be nearly 
  14981. impossible to define a 'standard model'. The whole point of the different
  14982. architectures is to solve different problems.
  14983.  
  14984. >   We are now in an age when the high performance machines have
  14985. >various data network topologies, i.e. meshes, torii, linear arrays,
  14986. >vector processors, hypercubes, fat-trees, switching networks, etc..
  14987. >etc.. These parallel machines might all have sexy architectures, but
  14988. >we are headed in the wrong direction if we don't take a step back and
  14989. >look at the future of our work.  We shouldn't have to rewrite our
  14990. >algorithms from scratch each time our vendor sells us the latest
  14991. >hardware with amazing benchmarks. 
  14992.  
  14993. I think you're approaching this precisely backwards. The new machines are
  14994. invented to handle the different (or new) algorithms. A massively
  14995. parallel machine does some things very well, and others not so well;
  14996. and the same can be said for vector processors, etc. I think that
  14997. usually, one would decide which computer to use or buy based on the
  14998. problem to be solved, not buy a computer and then try to write a 
  14999. problem to solve with it. However, if you have a problem that could
  15000. take advantage of a new architecture that comes along, it's worth doing
  15001. some re-structuring if necessary.
  15002.  
  15003. >Benchmarks should also be
  15004. >attainable from STANDARD compiler options.  We should NOT have to
  15005. >streamline routines in assembly language, give data layout directives,
  15006. >nor understand the complexities of the hardware and/or data network.
  15007.  
  15008. You get out what you put in.
  15009.  
  15010. Alan
  15011.  
  15012. Approved: parallel@hubcap.clemson.edu
  15013. Follow-up: comp.parallel
  15014. Path: bounce-back
  15015. Newsgroups: comp.parallel
  15016. From: wittmann@Informatik.TU-Muenchen.DE (Marion Wittmann)
  15017. Subject: re: classification of algorithms
  15018. Originator: wittmann@hphalle7d.informatik.tu-muenchen.de
  15019. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  15020. Organization: Technische Universitaet Muenchen, Germany
  15021. Date:     Mon, 25 Oct 1993 13:33:01 +0100
  15022.  
  15023.  
  15024. A few very nice people have answered to my news :
  15025.  
  15026.   I'm trying to classify parallel algorithms.
  15027.   Especially I'm interested in their characteristial
  15028.   SVM-properties. 
  15029.   Therefor I need some literature about
  15030.   application schemes and classification of algorithms,
  15031.   not only of parallel ones.
  15032.  
  15033.   If you know any literature dealing with this subject,
  15034.   please mail
  15035.   
  15036.      wittmann@informatik.tu-muenchen.de
  15037.  
  15038.   Thanks for your help
  15039.  
  15040. Below you can find a summary of all answeres I got till now
  15041.  
  15042. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  15043.  
  15044. From:    Carlos Falco Korn <korn@computer-science.manchester.ac.uk>
  15045. To:    wittmann@informatik.tu-muenchen.de
  15046. Subject:  Classification of algorithms
  15047.  
  15048. Hi Marion,
  15049.  
  15050. I'll write in english in case you want to collect and send all responses
  15051. to the net.
  15052.  
  15053. We have developed in Basel a methodology for classifying parallel
  15054. algortihms; we call it BACS (Basel Algorithm Classification scheme).
  15055. The latest report is available through anonymous ftp from
  15056.     lucy.ifi.unibas.ch, subdirectory baks
  15057. It is in Postscript format and prints out nicely on NeXT and Macs.
  15058. If you have problems with it, you can obtain a hardcopy by writing
  15059. to
  15060.    Prof. Dr. H. Burkhart
  15061.    Institut fuer Informatik, Uni. Basel
  15062.    Mittlere Str. 142
  15063.    4056 Basel, Schweiz
  15064. and asking for the report.
  15065.  
  15066. The classification concentrates on 3 major parts relevant to
  15067. parallel algorithms: processes, interactions and data.
  15068. We have identified the most usual attributes related to
  15069. these three aspects.
  15070.  
  15071. Work on this project is still going on: things have focused lately
  15072. on the development of tools based on the classification (see report).
  15073. But now, there is also major work on giving the terminology a major
  15074. overview, ie. concretizing several points that have been a little
  15075. bit neglected. If everything works well, the new report should
  15076. be finished before X-mas. Note that it will represent ONLY a revision,
  15077. this means that the structure of the classification (given in
  15078. the actual report) will NOT change.
  15079.   
  15080. I left Basel 1 month ago, and am now at Manchester University. I intend
  15081. to relate BACS to SVM programming models (we have a KSR in Manchester),
  15082. and check the consequences: BACS relies heavily on message passing,
  15083. and I would like to generalize it by regarding SVM. 
  15084.  
  15085. Therefore I am naturally interested in your work. Could you explain a bit
  15086. further what you intend to do, ie. what you expect to find out?
  15087. I would appreciate a short comment.
  15088.  
  15089. Cheers,
  15090.    Carlos
  15091.  
  15092. PS: feel free to contact me on any question on BACS.
  15093.  
  15094. *************************************************************
  15095. * Dr. Carlos Falco Korn        |                            * 
  15096. * Center for Novel Computing   |                            *
  15097. * Dept. of Computer Science    |  tel:   +44-61-2756144     *
  15098. * The University               |  fax:   +44-61-2756204     *
  15099. * Manchester, M13 9PL          |  email: korn@cs.man.ac.uk  *
  15100. * United Kingdom               |                            *
  15101. *************************************************************
  15102.  
  15103. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  15104.  
  15105.  
  15106. From:    A.D.Ben-Dyke@computer-science.birmingham.ac.uk
  15107. To:    " (Marion Wittmann)" <wittmann@informatik.tu-muenchen.de>
  15108. Subject:  Re: classification of algorithms
  15109.  
  15110.  
  15111. You can try the following:
  15112.  
  15113. @Book{Parallel:Algorithms,
  15114.   author =    {Alan Gibbons and Wojciech Rytter},
  15115.   title =    {Efficient Parallel Algorithms},
  15116.   publisher =    {Cambridge University Press},
  15117.   year =    {1988},
  15118.   annote =    {Gives an overview of the techniques used in
  15119.          developing parallel algorithms - it uses the PRAM
  15120.          as the underlying computational model, and 
  15121.          describes some of the more basic paradigms (DC, 
  15122.          graph stuff) before going on to cover some 
  15123.          more complicated structures.  All the usual stuff
  15124.          on sorting, parsing, string matching and 
  15125.          graph algorithms, as well as a chapter on
  15126.          P-completeness - the class of hardly parallelisable
  15127.          algorithms.},
  15128.   got =        {In Simon's Collection},
  15129. }
  15130.  
  15131. This has a fairly comprehensive bibliography and the PRAM style is
  15132. close(ish) to the SVM approach.  The following is interesting, but
  15133. not directly relevant:
  15134.  
  15135. @TechReport{BACS:Skeletons,
  15136.   author =    {Helmar Burkhart and Carlos Falco Korn and Stephan
  15137.          Gutzwiller and Peter Ohnacker and Stephan Waser},
  15138.   title =    {{BACS}: Basel Algorithm Classification Scheme},
  15139.   institution =    {University of Basel, Switzerland},
  15140.   number =    {93-3},
  15141.   year =    {1993},
  15142.   month =    {March},
  15143.   email =    {bacs@ifi.unibas.ch},
  15144.   ftp =        {lucy.ifi.unibas.ch:/baks/BACS_1.1_english.ps.Z},
  15145.   annote =    {Describes the software dilemma: learning phase is
  15146.          enormous, too many details required from the user,
  15147.          writing correct programs is very difficult (=> limit
  15148.          on size of manageable system), not protable.  Two
  15149.          approaches are discussed: 1. the use of virtual
  15150.          machines to avoid machine dependencies, but they must
  15151.          be general enough to be implementable on a range of
  15152.          machines but not so abstract as to be inefficient.
  15153.          2. orthogonality of computation and coordination 
  15154.          (i.e. implicit parallelism).  Another method,
  15155.          algorithmic reusability is proposed, which sits
  15156.          between the two previously mentioned methods (i.e.
  15157.          can provide an intermediate language for mapping 
  15158.          a very HLL to a low level one such as Linda). The
  15159.          system defines two types of process - normal 
  15160.          computation and demons, with the first step in the
  15161.          process being to develop a computation (with
  15162.          or without demon) and interaction graph (active and
  15163.          passive respectively).  As the graph can change at
  15164.          runtime (controlled by the demon) a set of
  15165.          construction (for creating the processes) and
  15166.          destruction (for dismantling and garbage collection)
  15167.          rules need to be provided - one algorithm may have
  15168.          several different rules.  A hierarchy of algorithm
  15169.          toplogy is developed with regular and irregular (each
  15170.          process has its own construction rule) and homgenous
  15171.          (all instructions are the same    within a group) and
  15172.          inhomogenous (worker) providing the first two levels.
  15173.          Also an algorithm is static (construct/destruct ops
  15174.          called once) or dynamic.  Getting back to comms,
  15175.          direct and global (more than 2 processors involved -
  15176.          and either being coupled (explicit involvement) or
  15177.          decoupled) comms are diferentiated.  Now the
  15178.          (de)comp rules need to specify what data is
  15179.          distributed and how is it to be achieved and whether
  15180.          they're input/output/temporary.  Then global atmoic
  15181.          variables are covered using local, global and
  15182.          deicated (static/dynamic) as the categories with
  15183.          monotone variables being supported.  The data
  15184.          granuality is then defined as fine, medium or 
  15185.          coarse (depending on the relationship between the
  15186.          total size of the struct vs the amount processed
  15187.          locally).  Then the macroscopic program structure
  15188.          is defined (i.e. skeletonish) and the process
  15189.          granuality (fine => SIMD, medium, coarse) and the
  15190.          algorithm is then classified (Static/Dynamic Process,
  15191.          Global/Static/Dynamic Data with more than one
  15192.          attribute being assignable) and typical examples of
  15193.          each discussed.  On top of this classification, other
  15194.          attributes are included: toplogy (data+process),
  15195.          time.},
  15196.   got =        {yes},
  15197.  
  15198. }
  15199.  
  15200.  
  15201.  
  15202.     Cheers,
  15203.  
  15204.         Andy.
  15205.  
  15206.  
  15207. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  15208.  
  15209.  
  15210. From:    Fethi A Rabhi <F.A.Rabhi@computer-science.hull.ac.uk>
  15211. To:    wittmann@informatik.tu-muenchen.de
  15212. Subject:  Classification
  15213.  
  15214.  
  15215. I have made a classification but for a different purpose. I can send you
  15216. a paper if you give me your address, you might find useful references.
  15217.  
  15218. Regards,
  15219.  
  15220. ---------------------------------------------------------------------
  15221. Dr Fethi A. Rabhi                        Email : far@dcs.hull.ac.uk
  15222. Computer Science
  15223. University of Hull                       Tel : +44 (0)482 465744
  15224. Hull HU6 7RX (UK)                        Fax : +44 (0)482 466666 
  15225.  
  15226. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  15227.  
  15228. Approved: parallel@hubcap.clemson.edu
  15229. Follow-up: comp.parallel
  15230. Path: bounce-back
  15231. Newsgroups: comp.parallel
  15232. Date: Mon, 25 Oct 93 05:56:00 PDT
  15233. From: hecht@oregon.cray.com
  15234. Subject: Delivering Parallel Performance
  15235.  
  15236. It seems that people talking about parallel performance often confuse/hide
  15237. the important low details that provide performance. Performance on parallel
  15238. programs depends on several key factors regardless of shared memory or
  15239. distributed memory implementation.  These factors are:
  15240.  
  15241.   1) Memory bandwidth
  15242.      a) Memory Latency
  15243.      b) Memory Bandwidth/Communication Bandwidth
  15244.   2) Parallel Coordination
  15245.      a) Updates to Global data
  15246.      b) Barrier synchronization
  15247.   3) Program Implementation
  15248.      a) Compute Intensity (ratio of ops/word)
  15249.      b) Amount of Parallel synchronization
  15250.  
  15251. Looking at memory latency we find shared memory latency 10 to 10,000 times
  15252. LESS to non-local data than distributed or cluster resources.  This
  15253. overhead factor,  combined with the easier shared memory programming model,
  15254. allows one to achieve greater relative performance.  Among commercial shared
  15255. memory systems the Cray APP is only superseded in this measure by the Cray
  15256. C90.
  15257.  
  15258. SHARED MEMORY LATENCY
  15259. =====================
  15260.    Machine          CPUS   CPU type       Year   Measured Latency
  15261.    ---------------  ----   -----------    ----   ----------------
  15262.    CRAY 1             1    proprietary    1976    188 nanoseconds
  15263.    VAX 11/780         1    proprietary    1978   1200 nanoseconds
  15264.    Cyber 205          1    proprietary    1981   1200 nanoseconds
  15265.    FPS-164            1    proprietary    1981    543 nanoseconds
  15266.    CRAY X-MP          2    proprietary    1982    171 nanoseconds
  15267.    FPS-264            1    proprietary    1984    159 nanoseconds
  15268.    Convex 210         1    proprietary    1987    440 nanoseconds
  15269.    Convex 240         4    proprietary    198?    440 nanoseconds
  15270.    CRAY Y-MP          8    proprietary    1988    150 nanoseconds
  15271.    CRAY S-MP          8    SPARC          1989    900 nanoseconds
  15272.    CRAY Y-MP/C90     16    proprietary    1991    100 nanoseconds
  15273.    CRAY APP          84    Intel i860     1991    150 nanoseconds
  15274.    SGI Challenge     18    Mips R4000     1993    853 nanoseconds
  15275.  
  15276. Cray APPs can and are cluster together by the medium of HIPPI.  Such a
  15277. cluster is presented for comparison with other diverse distributed memory
  15278. systems.
  15279.  
  15280.  
  15281. Distributed Memory/Cluster Memory
  15282. =================================
  15283.  
  15284.                        MEASURED Perf   Peak Perf
  15285.                        =============   ===========
  15286. Machine                 BW/PE   Lat    BW/PE  Lat   Source
  15287.                  cpus   MB/s   usec    MB/s  usec
  15288. ---------------- ----  ------ ------ ------ ------ -------------------
  15289. KSR 32pe           32    19      7                 HSpeed Computing Conf
  15290. CRAY APP-cluster 1008    92      9     100   0.2   Compcon paper '93
  15291. Meiko CS-2          ?    44     25     10          OSU RFP58030026 pub. info
  15292. KSR 1088pe       1008     5     25                 HSpeed Computing Conf
  15293. Intel Delta       240     7     45     30    0.15  joel@SSD.intel.com '93
  15294. RS/6000 IBM V-7     ?     5    140                 express Newsletter '93
  15295. Convex HP/Meta-1    ?    12    150                 cicci@hpcnnn.cerh.ch '93
  15296. Intel XP/S          ?    14    159                 OSU RFP58030026 pub. info
  15297. nCube/2             ?     2    154                 ruehl@iis.ethz.ch '93
  15298. IBM SP1 8-64       64     4    220     40    0.5   elam@ibm.com '93
  15299. RS/6000 bit-3       ?    10    240                 express Newsletter '93
  15300. RS/6000 ethernet    ?    .1   3500                 express Newsletter '93
  15301.  
  15302.   Definitions
  15303.   -----------
  15304.    us   - micro seconds (10^-6 sec)
  15305.    BW   - Bandwidth (measured in MBytes/sec)
  15306.    MB/s - MegaBytes/sec
  15307.  
  15308. This memory/communication latencies are the bottleneck on the overheads
  15309. associated with parallelism (barriers, critical sections, shared updates,
  15310. etc.)  And this directly affects performance on real algorithms and the
  15311. speedups that can be obtained.
  15312.  
  15313.  
  15314. ===========================================================================
  15315. Pat Hecht
  15316. Cray Research Superservers, Inc.
  15317. hecht@cray.com
  15318. ===========================================================================
  15319.  
  15320. Other information
  15321. -----------------------------------------------------------------------
  15322. * HP Meta-1 (7100 chip, FDDI connection),  11.5 MB/s  on packets of at
  15323.   least 1kb.
  15324. * CRAY APP (i860 based, each CRAY APP has 84 PE, up to 12 systems in a
  15325.   cluster, for up to 1008 processors)
  15326. * RS/6000 IBM v-7 switch
  15327. * Hspeed Computing Conf = The Conference on High Speed Computing 3/29/93
  15328. * OSU RFP58030026 = part of an RFP for a computer system, by Oregon Law this
  15329.   info is part of the public record
  15330.  
  15331.  
  15332. APP Background (for those who don't know, ignore if you know)
  15333. -------------------------------------------------------------
  15334. Up to 84 processors (i860) per APP module
  15335. flat shared memory (equal access) via crossbar technology
  15336. ANSI HIPPI ports for clustering or networking and VME for I/O subsystem
  15337. low parallel overheads in a FORTRAN or C programming environment
  15338. Peaks Rates (6 Gflops 32-bit, 3 Gflops 64-bit)
  15339. (it really sustains Gflops on lots of stuff - FFTs, Seismic, radar, image
  15340. processing, solvers, etc.)
  15341.  
  15342.  
  15343. Approved: parallel@hubcap.clemson.edu
  15344. Follow-up: comp.parallel
  15345. Path: bounce-back
  15346. Newsgroups: comp.parallel
  15347. From: coats@cardinal.ncsc.org (Carlie Coats)
  15348. Subject: Re: The Future of Parallel Computing
  15349. Organization: North Carolina Supercomputing Center
  15350. References: <1993Oct14.131912.9126@hubcap.clemson.edu> <1993Oct19.154929.15823@hubcap.clemson.edu>
  15351.  
  15352.  
  15353.         I just read David Bader's missive on directions for parallel
  15354.         computing, and I rather tend to agree.  I would go further and
  15355.         say that the efforts I see being made toward standarization are
  15356.         ill-advised -- in particular, the efforts being made toward
  15357.         standards for message-passing programming.
  15358.  
  15359.         IMHO, message passing is at altogether too low a level for good
  15360.         software engineering.  In principle, I could use it for the sort
  15361.         of parallel applications I am trying to build.  I could build
  15362.         them in Cray Assembly Language, too, -- but I don't.
  15363.  
  15364.         We at MCNC are involved with building the first well-engineered
  15365.         generation of air quality models.  One of the major problems
  15366.         with previous models was their reliance upon sequential access
  15367.         to sequential files.  Consequently, the models tended to become
  15368.         (stated flippantly) conspiracies to manipulate a vastly complex
  15369.         state associated with a number of sequential files, their
  15370.         structures and their current file pointers.  Our answer to this
  15371.         has been to build a modeling-specific-query API on top of direct
  15372.         access files (the quintessential query being "Interpolate 3D
  15373.         gridded variable V from file F to time T").  This sort of file
  15374.         access (together with a conscious encapsulation in the design
  15375.         of the relevant atmospheric process simulation modules) has lead
  15376.         to a much simpler, more extensible and maintainable model
  15377.         structure -- at least for single-grid models.  It has also
  15378.         exposed an enormous amount of data parallelism for the
  15379.         compilers (we are showing an 80% speedup even on a Cray -- the
  15380.         old RADM model shared grid traversal responsibilities between
  15381.         the main and its science modules; with the new design, we are
  15382.         able to push the horizontal grid traversal into innermost loops;
  15383.         we get vector lengths of 1120 (=35*32), instead of just 35.)
  15384.  
  15385.         We are shortly going to start working with (two-way) nested
  15386.         models, nested to multiple levels eventually.  Nest structure
  15387.         will tend to be volatile, changing from application to
  15388.         application.  Consequently, I am reluctant to use the
  15389.         monolithic-program approach used by current nested models.  I
  15390.         would prefer to build a nested model from multiple *separate*
  15391.         but *cooperating* programs, each of which encapsulates the
  15392.         simulation -- and the data parallelism --associated with its own
  15393.         grid.  Furthermore, I don't want to *have* to phrase the
  15394.         cooperation in terms of message passing.  That would just get us
  15395.         back into the shared-state quagmire we have just spent so much
  15396.         work climbing out of.  I would much rather phrase the
  15397.         communications in terms compatible with what we are using for
  15398.         file access, with the added proviso that queries *block* until
  15399.         the data to satisfy them become available.
  15400.  
  15401.  
  15402.         Thanks,
  15403.  
  15404.         Carlie J. Coats, Jr., Ph.D.                 phone (919)248-9241
  15405.         MCNC Environmental Programs                 fax   (919)248-9245
  15406.         3021 Cornwallis Rd.                              coats@mcnc.org
  15407.         RTP, NC  27709-2889                    xcc@epavax.rtpnc.epa.gov
  15408.  
  15409.         "My opinions are my own, and I've got *lots* of them!"
  15410.  
  15411.  
  15412. Approved: parallel@hubcap.clemson.edu
  15413. Follow-up: comp.parallel
  15414. Path: bounce-back
  15415. Newsgroups: comp.parallel
  15416. From: Douglas Hanley <dgh@dcs.ed.ac.uk>
  15417. Subject: Paralation Model of Parallel Computation
  15418. Organization: Department of Computer Science, University of Edinburgh
  15419.  
  15420.  
  15421. This query concerns itself with Gary Sabot's Paralation Model of
  15422. Parallel Computation.  Currently I am attempting to implement the
  15423. Match and Move operators of this programming model across a MIMD
  15424. architecture in order access its performance characteristics (to date,
  15425. I think it has only been implemented on SIMD and Vector parallel
  15426. platforms).  I intend to use C as the base language to be extended
  15427. with Match & Move.  I know that a language called Paralation C was
  15428. being experimented with in 1988 and I would like to hear from anybody
  15429. who knows where I can get further information on it's current state or
  15430. has personal experience of it.  In addition I would be grateful to
  15431. hear from anybody who has any experience or information regarding
  15432. attempts to implement this programming model in any base language on
  15433. MIMD platforms.  Thanks in advance for any help...
  15434.  
  15435.  
  15436. Approved: parallel@hubcap.clemson.edu
  15437. Follow-up: comp.parallel
  15438. Path: bounce-back
  15439. Newsgroups: comp.parallel
  15440. To: comp-parallel@news.Germany.EU.net
  15441. Path: teutonia!hohndel
  15442. From: hohndel@informatik.uni-wuerzburg.de (Dirk Hohndel)
  15443. Newsgroups: comp.parallel
  15444. Subject: Re: terminology question
  15445. Date: 25 Oct 1993 14:47:14 GMT
  15446. Organization: University of Wuerzburg, Germany
  15447. References: <1993Oct20.121916.28264@hubcap.clemson.edu>
  15448. Nntp-Posting-Host: winx13
  15449. X-Newsreader: TIN [version 1.2 PL2]
  15450.  
  15451. Greg Wilson (EXP 31 dec 93) (Greg.Wilson@cs.anu.edu.au) wrote:
  15452. : I have always used the term "star" to refer to a topology in which every processor
  15453. : is connected to every other; however, I am told that the term is also used for
  15454.  
  15455. : topologies in which processors 1..N are connected to a distinguished central
  15456. : processor 0.  Assuming that the latter definition is more common, is there a term
  15457. : for topologies of the former type?
  15458.  
  15459. what you mean is the Crossbars topology.
  15460.  
  15461.     Dirk
  15462.  
  15463. --
  15464.  _     _           _            _   _     |  Lehrstuhl Informatik I
  15465. | | | |_) |/  |_| | | |_| |\ | | | |_ |   |  Universitaet Wuerzburg
  15466. |_/ | | \ |\  | | |_| | | | \| |_/ |_ |_  |  Am Hubland, D-97074 Wuerzburg
  15467.  
  15468. Approved: parallel@hubcap.clemson.edu
  15469. Follow-up: comp.parallel
  15470. Path: bounce-back
  15471. Newsgroups: comp.parallel
  15472. From: O.Naim@ecs.soton.ac.uk (Oscar Naim)
  15473. Subject: Re: Info on PABLO wanted
  15474. Organization: Electronics and Computer Science, University of Southampton
  15475. References: <1993Oct20.121909.28171@hubcap.clemson.edu>
  15476.  
  15477. In <1993Oct20.121909.28171@hubcap.clemson.edu> jgarcia@cse.ucsc.edu (Jorge Garcia) writes:
  15478.  
  15479. >I'm looking for any information available on the PABLO system, from
  15480. >the University of Illinois (I think). Does anyone know where I can 
  15481. >find technical articles about it, documentation, or any other source
  15482. >of information? Please reply directly to me: jgarcia@cse.ucsc.edu
  15483. >Thanks in advance,
  15484.  
  15485. >Jorge
  15486.  
  15487. Hi,
  15488.  
  15489. I hope this information will help you.
  15490.  
  15491. Cheers,
  15492. Oscar Naim.
  15493.  
  15494.  
  15495. >From pablo@edu.uiuc.cs.cymbal Tue Sep 14 15:49:57 1993
  15496. Received: from [080039002d26/DCC.38826110000503030002020103] by bright.ecs.soton.ac.uk; Tue, 14 Sep 93 15:38:22 BST
  15497. Received: from a.cs.uiuc.edu by sun3.nsfnet-relay.ac.uk with Internet SMTP 
  15498.           id <sg.03916-0@sun3.nsfnet-relay.ac.uk>;
  15499.           Tue, 14 Sep 1993 15:45:47 +0100
  15500. Received: from cymbal.cs.uiuc.edu by a.cs.uiuc.edu with SMTP 
  15501.           id AA10093 (5.64+/IDA-1.3.4 for O.Naim@ecs.soton.ac.uk);
  15502.           Tue, 14 Sep 93 09:45:40 -0500
  15503. Received: by cymbal.cs.uiuc.edu (4.1/SMI-4.1) id AA20182;
  15504.           Tue, 14 Sep 93 09:45:39 CDT
  15505. Date: Tue, 14 Sep 93 09:45:39 CDT
  15506. From: pablo@edu.uiuc.cs.cymbal (Pablo Account)
  15507. Message-Id: <9309141445.AA20182@cymbal.cs.uiuc.edu>
  15508. To: O.Naim
  15509. Subject: Pablo Release 2.0 now available
  15510. Sender: pablo@edu.uiuc.cs.cymbal
  15511. Content-Length: 11621
  15512. X-Lines: 266
  15513. Status: OR
  15514.  
  15515. This mail is to announce the availability of version 2.0 of the Pablo
  15516. Performance Analysis Environment.  If you wish to be removed from
  15517. the Pablo mailing list or receive multiple copies of this announcement,
  15518. please let us know by sending email to pablo@guitar.cs.uiuc.edu.
  15519.  
  15520. The Pablo environment presently includes:
  15521.  
  15522.     + Motif-based interface for the specification of source code
  15523.       instrumentation points (both trace and count data).
  15524.  
  15525.     + C parser that can generate instrumented application source code.
  15526.  
  15527.     + Performance data trace capture library for single processor
  15528.       Unix systems, for the Intel iPSC/2 and iPSC/860 hypercubes, and
  15529.       for the Thinking Machines Corporation CM-5 using CMMD (version 3.0).
  15530.  
  15531.     + Flexible self-documenting data metaformat and associated tools
  15532.       that can be used to describe and process diverse types of data.
  15533.  
  15534.     + Graphical performance analysis environment that runs on Sun
  15535.       SparcStations, DecStations running Ultrix, and the Intel
  15536.       Paragon.  The environment is based on the graphical
  15537.       configuration of directed data analysis graphs, that can be
  15538.       used to analyze and display dynamic performance data.
  15539.  
  15540.     + Standalone sonification system, called Porsonify, that can
  15541.       be used to map data to sound using MIDI synthesizers and sampled
  15542.       sounds on the Sun SparcStation.
  15543.  
  15544.     + Set of graphical display widgets for the X window system.  These
  15545.       include bargraphs, dials, scatterplots, kiviat diagrams, and contour
  15546.       plots. 
  15547.  
  15548. This distribution is directed at academic and government research sites.  
  15549. You may freely retrieve, use, and modify the Pablo software as long as it 
  15550. is not for commercial gain.
  15551.  
  15552. IF YOU ARE A COMMERCIAL ORGANIZATION AND WISH TO USE THE PABLO SOFTWARE
  15553. INTERNALLY OR YOU WISH TO INCORPORATE THE PABLO SOFTWARE INTO A COMMERCIAL
  15554. PRODUCT, YOU MUST COMPLETE A SOFTWARE LICENSE.  Commercial evaluation
  15555. licenses are available at minimal or no charge.  As a precursor to
  15556. licensing, Commercial organizations may retrieve copies of the Pablo
  15557. documentation (BUT NOT THE SOFTWARE) without charge.  
  15558.  
  15559. Documentation and software are available via ftp on the system named
  15560.  
  15561.     bugle.cs.uiuc.edu (128.174.237.148) 
  15562.  
  15563. The ftp server enforces some access restrictions to minimize the impact 
  15564. on our systems.  File retrieval constitutes consent to the terms of the 
  15565. license, and the ftp server maintains a log of files transferred.  
  15566.  
  15567. To retrieve the Pablo software and documentation, connect to ftp server
  15568. in the normal way, log in as anonymous, and specify your electronic mail
  15569. address as the password.  The Pablo software and documentation are located
  15570. in the pub directory.  In that directory, you will find the following:
  15571.  
  15572.     Pablo.license    the terms of the Pablo software license
  15573.     
  15574.     README        introduction to license agreement
  15575.  
  15576.     Release-2.0    subdirectory containing the current release
  15577.  
  15578. All items are compressed (.Z) files.  Source code is in tar format;
  15579. documents are in Postscript.  All directories contain README files
  15580. with additional details.
  15581.  
  15582. YOU ARE STRONGLY ENCOURAGED TO RETRIEVE AND READ THE DOCUMENTS PRIOR
  15583. TO RETRIEVING THE CODE.  Pablo is a large, complex system --- you should
  15584. be sure that you have the requisite tools and disk space before retrieving
  15585. and installing the software.
  15586.  
  15587. Thanks for your interest in the Pablo Analysis Environment!
  15588.  
  15589. ****************************************************************************
  15590. Excerpts from the pub/Release-2.0/README file:
  15591. ****************************************************************************
  15592.  
  15593. Changes since Release 1.1:
  15594.  
  15595. Environment:
  15596.  
  15597. -- Source has been modified to build with a more recent version of the g++
  15598.    compiler (2.4.5).
  15599.  
  15600. -- Moved to X11R5 patch level 25 and Motif release 1.2.2.
  15601.  
  15602. -- Built on DecStation running ULTRIX V4.2. (Not including Audio)
  15603.  
  15604. -- Built on SparcStation using Cross-compiler tools for Intel Paragon.
  15605.    (Not including Audio), producing an executable for the Intel Paragon.
  15606.  
  15607. SDDF library and Utility Programs:
  15608.  
  15609. -- Modified SDDF format to include a header for each file.  This header
  15610.    allows verification that a file is in SDDF format. It also supports
  15611.    on-the-fly reading and writing of binary files whose byte order is 
  15612.    different than that of the machine where the code is running.  
  15613.    Information on converting files and saved configurations to the new 
  15614.    SDDF format is included in the release.
  15615.  
  15616. -- Added new methods to support seeking on SDDF files.  This is of
  15617.    interest only if you are heavily involved in creating and manipulating
  15618.    SDDF files with your own programs.  It is transparent to the casual user.
  15619.  
  15620. -- Added a new utility program "FileStats" to accumulate and report
  15621.    statistics for SDDF files.  Provides useful guidelines for configuring 
  15622.    module parameters in the Pablo Visualization system.  
  15623.  
  15624. -- Added greater precision to the ASCII SDDF format for types float and double.
  15625.  
  15626. Pablo Visualization:
  15627.  
  15628. -- Expanded error checking in the user interface.
  15629.  
  15630. -- Added display to FileInput modules showing the percent of the file
  15631.    processed thus far.  Can be disabled by setting the Pablo app-defaults
  15632.    resource Pablo.displayBytesProcessed to FALSE, or interactively using the
  15633.    Configure Defaults dialog.
  15634.  
  15635. -- Modules with no output pipes can be removed from the execution graph.
  15636.    This permits graph editing.
  15637.  
  15638. -- Added option to allow reconfiguration of Module Parameters without showing
  15639.    pipe/record/field binding information.
  15640.  
  15641. -- An execution graph can be deleted and another entered without exiting
  15642.    the Pablo environment.
  15643.  
  15644. -- New analysis and display modules (Performance Utilization; Clustering)
  15645.  
  15646. -- Added informal documents on dealing with Black and White displays and
  15647.    writing new modules.  
  15648.  
  15649. Pablo Instrumentation:
  15650.  
  15651. -- Changed all timing measurements (including timestamps) from 32-bit
  15652.    integers to 64-bit integers to prevent clock wraparound in long-running
  15653.    applications on machines with fast clocks (e.g. the Intel iPSC/860
  15654.    user-level, which runs at 10 MHz).  The Timestamp field in trace files is
  15655.    no longer a 32-bit scalar, but a vector of two 32-bit integers.
  15656.  
  15657. -- Added redundant floating-point timestamps and other time measurements
  15658.    to all trace records.  These double precision scalar values are, unlike
  15659.    the above-mentioned Timestamp fields, independent of the system clock
  15660.    rate and report time in consistent units of Seconds (the name of the
  15661.    field).  These fields were added to make timing analyses easier, although
  15662.    at the cost of a possible loss of precision.
  15663.  
  15664. -- Implemented elementary clock synchronization on Intel hypercubes to
  15665.    counter clock drift.
  15666.  
  15667. -- Ported the instrumentation library to the Thinking Machines Corporation
  15668.    CM-5 using CMMD (version 3.0).  See the instrumentation environment
  15669.    user's guide for limitations on this port in the current release.
  15670.  
  15671. -- The instrumentation library produces trace files in the new SDDF format,
  15672.    compatible with the Pablo visualization software and tools contained in
  15673.    this release.  The SDDFMerge program uses the new Seconds field as the
  15674.    default merge key field, although the user may choose any scalar-valued
  15675.    field that appears in every record, monotonically nondecreasing through
  15676.    each file to be merged.
  15677.  
  15678. -- The message-passing extension to the trace library permits instrumentation
  15679.    of global message-passing operations, in addition to message send and
  15680.    receive operations.  The versions are system-dependent, e.g. the CM-5
  15681.    has CMMD global operations that do not directly correspond with Intel
  15682.    hypercube global operations.  In blocking receive trace records, a field
  15683.    has been added indicating the source node for the message.
  15684.  
  15685. -- Programs instrumented with the Pablo instrumentation parser and user
  15686.    interface (iPablo) now feature a run-time modifiable instrumentation
  15687.    activation/deactivation flag.  Without recompiling, tracing may be
  15688.    turned on or off dynamically, either under software control or more
  15689.    directly by the user through a debugger.  There is also an invocation
  15690.    option to select the initial trace flag setting.
  15691.  
  15692. -- Procedure and loop trace records produced by a program instrumented
  15693.    by iPablo include fields indicating the source code location of the
  15694.    instrumented program construct.  This data will be used in a future
  15695.    release to more fully integrate performance data with the task of
  15696.    instrumenting application software.
  15697.  
  15698. -----------------------------------------------------------------------------
  15699. Supported platforms and disk space requirments:
  15700.  
  15701. The Pablo instrumentation library was developed and tested on Intel
  15702. iPSC/2 and iPSC/860 systems and on the Thinking Machines CM-5 using
  15703. CMMD 3.0.  There is also a portable version which may be used to
  15704. instrument serial programs on BSD UNIX machines.  The instrumenting
  15705. parser and GUI (iPablo) are supported on the same machines as the
  15706. Pablo visualization software.
  15707.  
  15708. The Pablo visualization and sound environment in this distribution was 
  15709. developed and tested on the following hardware/software platforms:  
  15710.  
  15711.       + SparcStation 10-GX 
  15712.         SunOS                   4.1.3
  15713.         gnumake                 3.62
  15714.         g++/gcc                 2.4.5
  15715.      -or- 
  15716.     ATT Cfront        3.0.1
  15717.         X11R5                   patch level 25
  15718.         Motif                   1.2.2
  15719.         perl                    4.0
  15720.         WCL                     1.06 (from X11R5 contrib/lib/Wcl)
  15721.  
  15722. WCL is only used by the Sound portions of the system.  If you choose
  15723. not to build those, you will not need WCL.
  15724.  
  15725. The Pablo visualization system without the sound environment has also
  15726. been built and tested on the following hardware/software platforms:
  15727.  
  15728.       + DecStation 5000/200
  15729.         Ultrix                  4.2
  15730.         gnumake                 3.58
  15731.         g++/gcc                 2.4.5
  15732.         X11R5                   patch level 25
  15733.         Motif                   1.2.2
  15734.         perl                    3.0
  15735.  
  15736.       + Intel Paragon:
  15737.     OSF/1            Release 1.0.1
  15738.     gnumake            3.62
  15739.     CC            Release 3.0
  15740.     cc            Paragon Rel 4.1.2
  15741.         X11R5                   patch level 25
  15742.         Motif                   1.2.2
  15743.     * This was compiled on a SparcStation using the cross-development
  15744.       tools provided by Intel.  A few minor changes to include files were
  15745.       necessary to do the build.  These changes will be incorporated
  15746.       into Intel's next release.
  15747.  
  15748. Total disk space required for the Pablo source and binaries should not
  15749. exceed 55Mb on a SparcStation with dynamic libraries.  More will be
  15750. required for systems that do not support dynamic libraries. Approximate 
  15751. space requirements (in Mb) for individual components of the distribution are:
  15752.  
  15753.         Sample Trace Data Files & Executables       8Mb 
  15754.         Sound System Sample Libraries              16
  15755.         Sound System Source & Binaries             8
  15756.         Visualization Source & Binaries, 
  15757.      (including widgets and motif wrapper 
  15758.           classes)                    16
  15759.     Instrumentation Environment - Source &
  15760.       Binaries                    5
  15761.  
  15762. ------------------------------------------------------------------------------
  15763. Subdirectories:
  15764.  
  15765. DataFiles -  directory structure containing data files. See DataFiles/README
  15766.          for more details
  15767.  
  15768. SDDFlibrary - directory structure containging source for standalone SDDF
  15769.          library and sample programs that use the library. See 
  15770.          SDDFlibrary/README for more details.
  15771.  
  15772. Instrument - the Pablo Instrumentation system.  See Instrument/README for
  15773.          more details.
  15774.  
  15775. Visual -     the Pablo Visualization system.  See Visual/README
  15776.          for further information on the organization of the source tree
  15777.              for visualization system.
  15778.  
  15779. ----------------------------------------------------------------------------
  15780.  
  15781.  
  15782.  
  15783.  
  15784. Approved: parallel@hubcap.clemson.edu
  15785. Follow-up: comp.parallel
  15786. Path: bounce-back
  15787. From: blacey@cerf.net (Bruce B. Lacey)
  15788. Newsgroups: comp.parallel,comp.protocols.tcp-ip,comp.unix.programmer,comp.unix.questions
  15789. Subject: Availability of a Distributed Computing Environment API?
  15790.  
  15791.  
  15792. We are in the process of developing an image processing workbench that
  15793. will have services distributed amongst multiple UNIX machines. To
  15794. support this distributed computing environment (DCE) paradigm (multiple
  15795. clients, multiple servers), we need a priority based message passing
  15796. mechanism that operates using UNIX sockets. While we can develop our
  15797. own, I am sure that we are not alone in this need. I was wondering if
  15798. any fellow netters know of a commercial or preferably shareware package
  15799. that provides this sort of message passing mechanism over UNIX sockets.
  15800.  
  15801. Please e-mail responses to blacey@cerf.net
  15802.  
  15803. Thanks in advance,
  15804. Bruce B. Lacey
  15805.  
  15806.  
  15807. +====================================================================+
  15808. | Bruce B. Lacey     Technical Group Manager of Systems Engnineering |
  15809. | XonTech, Inc.      blacey@cerf.net                                 |
  15810. | Van Nuys, CA 91406 (818) 787-7380 ext. 295                         |
  15811. +~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~+ 
  15812. |     Specializing in massively parallel computing architectures.    |
  15813. +====================================================================+
  15814.  
  15815. Approved: parallel@hubcap.clemson.edu
  15816. Follow-up: comp.parallel
  15817. Path: bounce-back
  15818. Newsgroups: comp.parallel
  15819. From: lorie@antigone.cs.rice.edu (Lorie Liebrock)
  15820. Subject: composite or multi-grid problems
  15821. Organization: Rice University
  15822.  
  15823. I am working on algorithms for automating the distribution of ICRM (Irregularly
  15824. Coupled Regular Mesh) problems across parallel processors in Fortran D.
  15825. Other names for ICRM problems are composite grid and multi-block.
  15826. ICRM problems typically involve the simulation of material dynamics
  15827. in or around complex topology bodies. For example, one of the areas I am
  15828. interested in is aerodynamics simulations where each mesh represents
  15829. some component (e.g., body, wing, pylon, etc.) and the couplings represent
  15830. the seams or connections between the parts. In the aerodynamics case
  15831. the flow of air over the components may be the phenomenon of interest.
  15832. I am interested in any and all applications with such connected components.
  15833. My work is also intended to support ICRM problems for which the grids
  15834. have been generated automatically.
  15835.  
  15836. I am looking for a few test problems that I can use in validation of my
  15837. algorithms.  I am also looking for researchers with ICRM problems that
  15838. would be willing to discuss their applications and programs so that we can
  15839. continue improving support for these problems in Fortran D. Please
  15840. send me any comments and let me know if you or someone you know has
  15841. applications in this class.
  15842.  
  15843.  
  15844.  
  15845.  
  15846.                                    Lorie M. Liebrock
  15847.                                    lorie@cs.rice.edu
  15848.                                    Ph.D. Candidate
  15849.                                    Computer Science
  15850.                                    Rice University
  15851.  
  15852. Approved: parallel@hubcap.clemson.edu
  15853. Follow-up: comp.parallel
  15854. Path: bounce-back
  15855. Newsgroups: comp.parallel
  15856. From: wire@SSD.intel.com (Wire Moore)
  15857. Subject: Re: Information wanted on Warp and iWarp
  15858. Reply-To: wire@SSD.intel.com (Wire Moore)
  15859. Organization: Intel Supercomputer Systems, Beaverton, Oregon, USA
  15860. References: <93-10-031@comp.compilers> <1993Oct15.121107.29626@hubcap.clemson.edu>
  15861.  
  15862. RE: Information on Warp and iWarp:
  15863.  
  15864. CMU's iWarp papers are available by anonymous FTP on
  15865. puffin.warp.cs.cmu.edu in the directory iwarp-papers.
  15866.  
  15867. Contact Thomas Stricker at CMU (Thomas.Stricker@cs.cmu.edu) for more
  15868. information on Warp.
  15869.  
  15870. I have access to a small number of architecture specifications (the
  15871. architecture handbook) for the iWarp component that can be made
  15872. available by request to me.
  15873.  
  15874. -------------------------------------------------------------------------------
  15875. Wire Moore                                           phone:  (503) 629-6333
  15876. Intel Supercomputers                                 fax:    (503) 629-6367
  15877. 15201 NW Greenbriar Parkway                          email:  wire@ssd.intel.com
  15878. Beaverton, OR   97006
  15879.  
  15880.  
  15881.  
  15882.  
  15883. Approved: parallel@hubcap.clemson.edu
  15884. Follow-up: comp.parallel
  15885. Path: bounce-back
  15886. Newsgroups: comp.parallel
  15887. From: conte%oprah.ece.scarolina.edu@usceast.cs.scarolina.edu (Tom Conte)
  15888. Subject: Position Announcement: NCR Endowed Chair
  15889. Organization: ECE Department, University of South Carolina
  15890.  
  15891.              UNIVERSITY OF SOUTH CAROLINA
  15892.  
  15893.           NCR Endowed Chair in Computer Engineering
  15894.  
  15895.  
  15896. The University of South Carolina Department of Electrical and Computer
  15897. Engineering seeks applications for the NCR Endowed Chair position in
  15898. Computer Engineering at the rank of Professor.  Applicants must have
  15899. demonstrated research success in computer architecture, software
  15900. systems or a related field. The selected individual will be expected
  15901. to work closely with the department's faculty and NCR (an AT&T
  15902. Company).  The relationship between NCR and the department is strong,
  15903. with NCR supporting several research efforts.
  15904.  
  15905. The ECE Department is housed in the $24 million Swearingen Engineering
  15906. Center, which contains laboratories for mobile robotics, computational
  15907. electronics, millimeter-wave integrated circuits, VLSI CAD, artificial
  15908. intelligence, computer architecture, parallel processing, software
  15909. engineering, high voltage, pulsed power, and laser systems.  The
  15910. department offers the B.S., M.E., M.S., and Ph.D. degrees.  Interested
  15911. individuals should submit a resume, a publication bibliography, names
  15912. of five references, and three selected publications by March 1, 1994
  15913. to:
  15914.  
  15915.     NCR Chair Search Committee
  15916.     Department of Electrical and Computer Engineering
  15917.     University of South Carolina
  15918.     Columbia, SC 29208
  15919.  
  15920. The University of South Carolina is an equal opportunity and
  15921. affirmative action employer.
  15922.  
  15923.  
  15924. Approved: parallel@hubcap.clemson.edu
  15925. Follow-up: comp.parallel
  15926. Path: bounce-back
  15927. Newsgroups: comp.parallel
  15928. Date: Mon, 25 Oct 1993 14:31:56 -0500
  15929. From: David Kanecki <kanecki@cs.uwp.edu>
  15930. Subject: Simulaton for Emergency Management (repost)
  15931.  
  15932.  
  15933.  
  15934.    
  15935.         As chairperson of the Emergency Management Committee for The Socie-
  15936.    ty for Computer Simulation, I would like to ask for your help in inform-
  15937.    ing  others  about the Emergency Management Conference and to  submit  a 
  15938.    paper or abstract to the conference. Papers and abstracts can be submit-
  15939.    ted  until December 20th. To submit a paper or abstract, please sent it
  15940.    to:
  15941.  
  15942.         Simulation for Emergency Management
  15943.         c/o SMC '94
  15944.         P.O. Box 17900
  15945.         San Diego, CA 92177
  15946.         Phone: (619)-277-3888, Fax: (619)-277-3930
  15947.  
  15948.     Currently, we have received four papers from colleagues in the 
  15949.    industrial, government, and academic areas. Also, if you would like
  15950.    to volunteer, please contact me, kanecki@cs.uwp.edu, or SCS in San 
  15951.    Diego.
  15952.  
  15953.         Other  conferences that are being held during the 1994 SCS  Simula-
  15954.    tion Multiconference, SMC '94, April 11-15, 1994, Hyatt Regency Aventine 
  15955.    -  La  Jolla, San Diego, California are Simulators  International;  High 
  15956.    Performance Computing Symposium; Visualization, Validation, &  Verifica-
  15957.    tion  of Computer Simulations; Mission Earth; Military, Government,  and 
  15958.    Aerospace Simulation; and 27th Annual Simulation Symposium.
  15959.  
  15960.     Prior conferences on Emergency Management were held in 1983, 1985,
  15961.    1987, 1989, 1991, 1992, and 1993. All of these conferences were sponsored
  15962.    by SCS.                                      
  15963.  
  15964.         To  show the diversity of topics and interest of Emergency  Manage-
  15965.    ment,  I have compiled a list of authors and titles of papers  from  the 
  15966.    1993 and 1992 conferences:
  15967.    
  15968.         1993 Conference
  15969.         1. "A Report Card on the Effectiveness of Emergency Management  and 
  15970.    Engineering", James D. Sullivan, CCP, CDP, CSP.
  15971.         2.  "A  New  Cooperative Program for the  Development  of  Advanced 
  15972.    Technology for Emergency Preparedness", Robert J. Crowley, P.E.
  15973.         3.  "Simulation in Training and Exercises for Emergency  Response", 
  15974.    Lois Clack McCoy.
  15975.         4. "Fatal Hazardous Materials and Accident Statistics", Theodore S. 
  15976.    Glickman, Dominic Golding, Karen S. Terry, Frederick W. Talcott.
  15977.         5.  "A Risk Analytic Approach to Contingency Planning using  Expert 
  15978.    Judgement in Simulated Scenarios", John R. Harrald, Thomas Mazzuchi.
  15979.         6. "Emergency Response and Operational Risk Management",  Giampiero 
  15980.    E.G. Beroggi, William A. Wallace.
  15981.         7.  "Damage  Analysis  of Water Distribution  Systems  using  GIS", 
  15982.    Matthew  J. Cassaro, Sridhar Kamojjala, N.R. Bhaskar, R.K. Ragade,  M.A. 
  15983.    Cassaro.
  15984.         8.  "Physical  Damage and Human Loss: Simulation  of  the  Economic 
  15985.    Impact  of Earthquake Mitigation Measures", Frederick  Krimgold,  Jayant 
  15986.    Khadilkar, Robert Kilcup.
  15987.         9.  "Utah Equip: A Comprehensive Earthquake Loss  Prediction  Model 
  15988.    for  the  Wasatch Fault", Robert Wilson, Christopher Rojahn,  Dr.  Roger 
  15989.    Scholl, Barbara Skiffington, Terry Cocozza.
  15990.         10.  "Geographic Information System (GIS) Application in  Emergency 
  15991.    Management", Donald E. Newsom, Ph.D., P.E., Jacques E. Mitrani.
  15992.         11. "Smart Spatial Information Systems and Disaster Management: GIS 
  15993.    in the Space Age", A.M.G. Jarman, Ph.D.
  15994.         12.  "An Evacuation Simulation for Underground Mining", Richard  L. 
  15995.    Unger, Audrey F. Glowacki, Robert R. Stein.
  15996.         13.  "Importance  of Rems in the Aftermath  of  Hurricane  Andrew", 
  15997.    Suleyman Tufekci, Sandesh J. Jagdev, Abdulatef Albirsairi.
  15998.  
  15999.  
  16000.  
  16001.  
  16002.  
  16003.  
  16004.         14. "Optimal Routing in State Dependent Evacuation Networks", David 
  16005.    L. Bakuli, J. MacGregor Smith.
  16006.         15.  "Evacuation Models and Objectives", Gunnar G. Lovas,  Jo  Wik-
  16007.    lund, K. Harrald Drager.
  16008.         16. "Xpent, Slope, Stability Expert System for Managing the  Risk", 
  16009.    R.M. Faure, Ph.D., D. Mascarelli, Ph.D.
  16010.         17.  "Mapping  of  Forest Units which have  a  Protective  Function 
  16011.    against  Natural  Hazards. An Application  of  Geographical  Information 
  16012.    Systems in France", Frederic Berger.
  16013.         18.  "Artificial Intelligence and Local Avalanche Forecasting:  The 
  16014.    System 'AVALOG' ", Robert Belognesi.
  16015.         19. "Simulations in Debris Flow", Fabrice Moutte.
  16016.         20. "Planning and Controlling of General Repair in a Nuclear  Power 
  16017.    Plant", Majdandzic N. and Dobrila Damjonovic-Zivic.
  16018.         21.  "Spatial Decision Support Systems for Emergency  Planning:  An 
  16019.    Operational  Research/  Geographical  Information  Systems  Approach  to 
  16020.    Evacuation  Planning",  F.  Nishakumari de Silva,  Michael  Pidd,  Roger 
  16021.    Eglese.
  16022.         22.  "Online  Expert  Systems for Monitoring  Nuclear  Power  Plant 
  16023.    Accidents", M. Parker, F. Niziolek, J. Brittin.
  16024.         23. "Nuclear Power Reactor Accident Monitoring", M. Parker, P.E.
  16025.         24. "An Expert System for Monitoring the Zion Nuclear Power Station 
  16026.    the DNS Early Warning Program", Joseph L. Brittin, Frank Niziolek.
  16027.         25. "Fire Spread Computer Simulation of Urban Conflagagrations", P. 
  16028.    Bryant, G.R. Doenges, W.B. Samuels, S.B. Martin, A.B. Willoughby.
  16029.         26.  "Practical  Applications  of Virtual  Reality  to  Firefighter 
  16030.    Training", Randall Egsegian, Ken Pittman, Ken Farmer, Rick Zobel.
  16031.         27.  "Difficulties in the Simulation of Wildfires", James H.  Brad-
  16032.    ley, A. Ben Clymer.
  16033.         28. " 'Snow and Computer' A Survey of Applications for Snow Hazards 
  16034.    Protection in France", Laurent Buisson, Gilles Borrel.
  16035.         29.  "Mem-brain,  Decision Support Integration-Platform  for  Major 
  16036.    Emergency Management (MEM)", Yaron Shavit.
  16037.         30.  "Architecture  of a Decision Support System  for  Forest  Fire 
  16038.    Prevention and Fighting", Jean-Luc Wybo, Erick Meunier.
  16039.         31.  "Optimizing  Comprehensive Emergency Mitigation  and  Response 
  16040.    through  the  use of Automation (Panel Discussion)", Lois  Clark  McCoy, 
  16041.    David McMillion.
  16042.         32. "Applying a Geographical Information System to Disaster  Epide-
  16043.    miologic  Research: Hurricane Andrew, Florida 1992", Josephine  Malilay, 
  16044.    Lynn Quenemoen.
  16045.         33.  "An Effective Method of Extracting a Localized  Storm  History 
  16046.    from a Database of Tracks", Eric C. Dutton, Ronald S. Reagan.
  16047.         34.  "Periodic Poisson Process for Hurricane  Disaster  Contingency 
  16048.    Planning", Ronald S. Reagan.
  16049.         35.  "Estimation,  Optimization,  and Control  in  Rural  Emergency 
  16050.    Medical Service (EMS) Systems", Cecil D. Burge, Ph.D., P.E.
  16051.         36.  "Visions for a Networked System of Emergency Vehicle  Training 
  16052.    Simulators", Gregory J. Bookout.
  16053.         37. "The FEMA ROCS Model", Henry S. Liers, Ph.D.
  16054.         38.  "Computers  bring Crisis Simulations to  Life  using  Computer 
  16055.    Maps,  Graphics, and Databases to Re-Define and Maximize the  Effective-
  16056.    ness  of "Tabletop" Crisis Simulations", James W. Morentz,  Ph.D.,  Lois 
  16057.    Clark McCoy, Joseph Appelbaum, David Griffith.
  16058.         39.  "The Use of Computer Simulations for Consequence  Analysis  of 
  16059.  
  16060.  
  16061.  
  16062.  
  16063.  
  16064.  
  16065.    Toxic Chemical Releases", E.D. Chikhliwala, M. Oliver, S. Kothandarman.
  16066.         40. "Didactic Simulation (Syndicate Exercise) for Disaster  Manage-
  16067.    ment", Dr. S. Ramini.
  16068.         41.  "Its Just one Damn' Crisis After Another...", S.F.  Blinkhorn, 
  16069.    M.A., Ph.D.
  16070.         42. "AEDR, American Engineers for Disaster Relief Database, Spread-
  16071.    sheet and Wordprocessing Applications", James S. Cohen.
  16072.         43.  "Geophysical  Uncertainties Affecting Emergencies",  James  H. 
  16073.    Bradley, Ph.D.
  16074.         44. "Consultation on Simulation for Emergency Preparedness  (COSEP) 
  16075.    User/Developer Roundtable Discussion Session", Lois Clark McCoy,  Donald 
  16076.    E. Newsom, Jacques Mitrani.
  16077.    
  16078.    1992 Proceedings
  16079.         1. "Are We Winning the War Against Emergencies", James D. Sullivan, 
  16080.    CCP, CDP, CSP.
  16081.         2. "Simulation of Suburban Area Fires", A. Ben Clymer.
  16082.         3. "Expertgraph: Knowledge Based Analysis and Real Time  Monitoring 
  16083.    of  Spatial  Data  Application  to  Forest  Fire  Prevention  in  French 
  16084.    Riviera", Jean Luc Wybo.
  16085.         4.  "Simulation  in  Support of The  Chemical  Stockpile  Emergency 
  16086.    Preparedness Program (CSEPP)", Robert T. Jaske, P.E., Madhu Beriwal.
  16087.         5.  "Modeling  Protective  Action Decisions  for  Chemical  Weapons 
  16088.    Accidents", John H. Sorensen, George O. Rogers, Michael J. Meador.
  16089.         6. "Simulation Meets Reality - Chemical Hazard Models in Real World 
  16090.    Use", Donald E. Newsom, Ph.D., P.E.
  16091.         7.  "Managing the Risk of a Large Marine Chemical Spill",  Marc  B. 
  16092.    Wilson, John R. Harrald.
  16093.         8.  "Simclone  - A Simulated Cyclone - Some  User  Experiences  and 
  16094.    Problems", Dr. S. Ramani.
  16095.         9. "Simulation of Coastal Flooding Caused by Hurricanes and  Winter 
  16096.    Storms", Y.J. Tsai.
  16097.         10.  "Simulation of Environmental Hazards in a Geographic  Informa-
  16098.    tion System: A Transboundary Urban Example from the Texas/Mexico Border-
  16099.    lands", Thomas M. Woodfin.
  16100.         11.  "Simulation  and  Protection in  Avalanche  Control",  Laurent 
  16101.    Buisson.
  16102.         12.  "Natural Disasters, Space Technology, and the  Development  of 
  16103.    Expert  Systems: Some Recent Developments in Australian  National  River 
  16104.    Basin Planning and Management", A.M.G. Jarman, Ph.D.
  16105.         13. "Characterizing Mine Emergency Response Skills: A Team Approach 
  16106.    to Knowledge Acquisition", Launa Mallet, Charles Vaught.
  16107.         14.  "Using Simulation to Prepare for Emergency Mine  Fire  Evacua-
  16108.    tion", Audrey F. Glowacki.
  16109.         15. "Dymod: Towards Real Time, Dynamic Traffic Routing During  Mass 
  16110.    Evacuations", Frank Southworth, Bruce N. Janson, Mohan M. Venigalla.
  16111.         16.  "A Tutorial on Modeling Emergency Evacuation",  Thomas  Kisko, 
  16112.    Suleyman Tufekci.
  16113.         17.  "REMS: A Regional Evacuation Decision Support System",  Thomas 
  16114.    Kisko, Suleyman Tufekci.
  16115.         18.  "EVACSIM:  A  Comprehensive Evacuation  Simulation  Tool",  K. 
  16116.    Harrald  Drager, Gunnar Lovas, Jo Wiklind, Helge Soma, Duc  Duong,  Anne 
  16117.    Violas, Veronique Laneres.
  16118.         19.  "The Prediction of Time-Dependent  Population  Distributions", 
  16119.    George Banz.
  16120.  
  16121.  
  16122.  
  16123.  
  16124.  
  16125.  
  16126.         20. "Mulit-Objective Routing in Stochastic Evacuation Networks", J. 
  16127.    MacGregor Smith.
  16128.         21.  "Earthquake  Impact Projections  Expert  System  Application", 
  16129.    Barbara Skiffington, Robert Wilson.
  16130.         22.  "An Economic Profile of a Regional Economy Based on an  Implan 
  16131.    Derived Database", E. Lawrence Salkin.
  16132.         23.  "Energy  Corrected  Simulation  Accelerograms  for  Non-Linear 
  16133.    Structures", Darush Davani, Michael P. Gaus.
  16134.         24.   "Stimulating   the   Planning   Progress   Through   Computer 
  16135.    Simulation", Salvatore Belardo, John R. Harald.
  16136.         25. "Simulation Methods in Utility Level Nuclear Power Plant  Emer-
  16137.    gency Exercises", Klaus Sjoblom.
  16138.         26.  "Computer Simulation of Industrial Base Capacity to  Meet  Na-
  16139.    tional Security Requirements", Mile Austin.
  16140.         27.  "The  FEMA  Emergency Management  Assessment  System",  Robert 
  16141.    Wilson.
  16142.         28. "The Missing Data Base: Under-Automation in Disaster Response & 
  16143.    Planning", Lois Clark McCoy.
  16144.         29. "The Environmental Education: Need for All", M. Abdul Majeed.
  16145.  
  16146.  
  16147.  
  16148.  
  16149.  
  16150.  
  16151.                            === Call For Papers ===
  16152.    
  16153.                      SIMULATION FOR EMERGENCY MANAGEMENT
  16154.    
  16155.             Sponsored by The Society for Computer Simulation, SCS
  16156.                               April 11-15, 1994
  16157.                             La Jolla - California
  16158.                Part of the SCS 1994 Simulation Multiconference
  16159.    
  16160.    A special topic area of the SMC '94, sponsored by the Emergency  Manage-
  16161.    ment  Engineering Technical Activity Committee of the SCS brings  users, 
  16162.    planners,  researchers, managers, technicians, response  personnel,  and 
  16163.    other  interested parties to learn, teach, present, share, and  exchange 
  16164.    ideas  and information about how, when, where, and why computer  simula-
  16165.    tion and related tools can be used to avoid, mitigate, and recover  from 
  16166.    disasters and other emergencies.
  16167.    
  16168.                                     Topics
  16169.    Natural Disasters
  16170.         Hurricanes  and Tornadoes, Floods, Earthquakes, Volcanic  Activity, 
  16171.    Outdoor fires, snow and debris avalanches.
  16172.    
  16173.    Man-made Disasters
  16174.         Oil, Chemical and Nuclear spills, Nuclear and Chemical plant  acci-
  16175.    dents, building fires, Communication systems failures, Utility failures.
  16176.    
  16177.    Techniques
  16178.         Training and Simulators, AI and Expert systems, Global  information 
  16179.    systems,  Risk Analysis, Operations Research, Simulation,  Effectiveness 
  16180.    analysis, Cost and Damage analysis.
  16181.    
  16182.    Specific Applications
  16183.         Evacuation, Research on Emergency Management or Engineering,  Emer-
  16184.    gency Control Search and Rescue.
  16185.    
  16186.    Presentations, demonstrations and exhibits concerning any and all  areas 
  16187.    of  simulation and modeling (as well as related technologies)  including 
  16188.    safety, emergency management and planning, forensic technology,  design, 
  16189.    response, user experience and problems and case studies are  appropriate 
  16190.    to be presented.
  16191.    
  16192.    Papers or abstracts can be submitted until late December to:
  16193.         Simulation for Emergency Management
  16194.         c/o SMC '94
  16195.         P.O. Box 17900
  16196.         San Diego, CA 92177
  16197.         Phone (619)-277-3888, Fax (619)-277-3930
  16198.    
  16199.    Other Conferences and activities being held as part of SMC '94
  16200.         Simulators  International,  High Performance  Computing  Symposium, 
  16201.    Visualization, Validation & Verification of Computer Simulation, Mission 
  16202.    Earth,  Military,  Government,  and Aerospace  Simulation,  27th  Annual 
  16203.    Simulation Symposium, Professional Development Seminars, and Exhibits.
  16204.  
  16205.  
  16206.  
  16207.  
  16208. Approved: parallel@hubcap.clemson.edu
  16209. Follow-up: comp.parallel
  16210. Path: bounce-back
  16211. Newsgroups: comp.parallel
  16212. From: eugene@nas.nasa.gov (Eugene N. Miya)
  16213. Subject: Re: The Future of Parallel Computing
  16214. Summary: well I wonder if this will post?.....
  16215. Organization: NAS - NASA Ames Research Center, Moffett Field, CA
  16216. References: <1993Oct14.131912.9126@hubcap.clemson.edu> <1993Oct19.154929.15823@hubcap.clemson.edu>
  16217.  
  16218. >In article <1993Oct14.131912.9126@hubcap.clemson.edu> Peter Su
  16219. <psu+@cs.cmu.edu>  writes:
  16220. >>Or, do I, for the purposes of benchmarking, have to regard the
  16221. >>vendor's brain-dead compiler as part of the system.  Aren't we trying
  16222. >>to figure out how good the *hardware* is, not the hardware+compiler?
  16223.  
  16224. In article <1993Oct19.154929.15823@hubcap.clemson.edu>
  16225. dbader@eng.umd.edu (David Bader) writes:
  16226. >   This brings up an interested question about the direction that the
  16227. >field of parallel computing is headed towards.
  16228. >
  16229. >   That is, is the hardware growing too fast and neglecting the
  16230. >software and algorithmic concerns?
  16231.  
  16232. The history of hardware has always exceeded the software.  Read one way,
  16233. an implication would be to slow down hardware development.  You would not
  16234. want that now would you?  I have a hard time seeing how we are going to
  16235. catch up algorithmically.  Have we many better algorithms than say Euclid's
  16236. algorithm?  It's not like we can undertake National initiatives to make
  16237. some of this stuff go faster.
  16238.  
  16239. The problem with computer architecture is that it is still in its infancy.
  16240. We have barely explored the multiprocessor design space.  We are far
  16241. from any sort of "standard" architecture.  We have specialized architectures
  16242. proposed by people who have more ways to connect processors than
  16243. there exist applications for them.
  16244.  
  16245. >Let's face
  16246. >it, after we create a large application, we do not want to have to
  16247. >rewrite it every time we get the "latest" machine, or even the next
  16248. >generation of our current series of machine.
  16249. >
  16250. >   Is the same true for the emergence of parallel computing?  In my
  16251. >opinion, no.  We have not ground out a "standard" representation for
  16252. >the model of parallel computing.  We have not put enough effort into
  16253. >the theory of parallel algorithmics.  Throwing faster hardware at us
  16254. >will not solve the problem. Even if the benchmark time for a given
  16255. >application is cut in half, what happens as we try to increase the
  16256. >problem size by a factor of K ? The compiler then must have the task
  16257. >of decomposing the algorithm onto the underlying hardware.  It is just
  16258. >wrong to require the programmer to have a detailed knowledge of the
  16259. >hardware, data layout, and compiler tricks just to get anywhere near
  16260. >"benchmarked" performance rates.
  16261.  
  16262. Mixed blessing; nice generality.  Should we throw slower hardware?
  16263.  
  16264. >   We are now in an age when the high performance machines have
  16265. >various data network topologies, i.e. meshes, torii, linear arrays,
  16266. >vector processors, hypercubes, fat-trees, switching networks, etc..
  16267. >etc.. These parallel machines might all have sexy architectures, but
  16268. >we are headed in the wrong direction if we don't take a step back and
  16269. >look at the future of our work.  We shouldn't have to rewrite our
  16270. >algorithms from scratch each time our vendor sells us the latest
  16271. >hardware with amazing benchmarks.  Benchmarks should also be
  16272. >attainable from STANDARD compiler options.  We should NOT have to
  16273. >streamline routines in assembly language, give data layout directives,
  16274. >nor understand the complexities of the hardware and/or data network.
  16275. >
  16276. >  Please let me know what you think,
  16277.  
  16278. I don't believe that many use assembly language these days, but we have
  16279. communication passing equivalents.
  16280. We will completely stop streamlining with assembly language just before we stop
  16281. using BibTeX or refer for bibliographic citations.
  16282.  
  16283. --eugene miya, NASA Ames Research Center, eugene@orville.nas.nasa.gov
  16284.   Resident Cynic, Rock of Ages Home for Retired Hackers
  16285.   {uunet,mailrus,other gateways}!ames!eugene
  16286. Second Favorite email message: 550 Host unknown (Authoritative answer from name server): Address family not supported by protocol family
  16287. A Ref: Mathematics and Plausible Reasoning, vol. 1, G. Polya
  16288.  
  16289. Approved: parallel@hubcap.clemson.edu
  16290. Follow-up: comp.parallel
  16291. Path: bounce-back
  16292. Newsgroups: comp.parallel
  16293. From: saevans@icaen.uiowa.edu (Scott A Evans)
  16294. Subject: routing benchmarks wanted
  16295. Sender: news@nexus.uiowa.edu (News)
  16296. Date: Mon, 25 Oct 1993 20:11:01 GMT
  16297. Nntp-Posting-Host: l_cae13.icaen.uiowa.edu
  16298. Organization: Iowa Computer Aided Engineering Network, University of Iowa
  16299. Apparently-To: comp-parallel@uunet.uu.net
  16300.  
  16301. I'm looking for pointers to benchmarks for VLSI routing schemes.  Any
  16302. pointers or help would be appreciated.  Thanks!
  16303.  
  16304. Scott
  16305. -- 
  16306.           Scott A Evans                      /0/ __O/  
  16307.      (saevans@icaen.uiowa.edu)      |TTTTTTTTTTTTTT\\T| 
  16308.        Grad Student For Life        |IIIIIIIIIIIIIII\\|  
  16309.      Sparks and Magic forever!      |      / \      / \  
  16310. Approved: parallel@hubcap.clemson.edu
  16311. Follow-up: comp.parallel
  16312. Path: bounce-back
  16313. Newsgroups: comp.parallel
  16314. From: urban@CS.ColoState.EDU (david urban)
  16315. Subject: Re: terminology question
  16316. Sender: news@yuma.ACNS.ColoState.EDU (News Account)
  16317. Message-ID: <Oct25.213641.54514@yuma.ACNS.ColoState.EDU>
  16318. Date: Mon, 25 Oct 1993 21:36:41 GMT
  16319. References: <1993Oct20.121916.28264@hubcap.clemson.edu>
  16320. Nntp-Posting-Host: beethoven.cs.colostate.edu
  16321. Organization: Colorado State University, Computer Science Department
  16322.  
  16323. In article <1993Oct20.121916.28264@hubcap.clemson.edu> Greg.Wilson@cs.anu.edu.au (Greg Wilson (EXP 31 dec 93)) writes:
  16324. >I have always used the term "star" to refer to a topology in which every processor
  16325. >is connected to every other; however, I am told that the term is also used for
  16326. >topologies in which processors 1..N are connected to a distinguished central
  16327. >processor 0.  Assuming that the latter definition is more common, is there a term
  16328. >for topologies of the former type?
  16329.  
  16330. In the parallel text we use, they refer to it as a fully connected network.
  16331.  
  16332. David S. Urban
  16333. -- 
  16334. David S. Urban   email : urban@cs.colostate.edu
  16335. To be the person, you must know the person. To know the person, you must
  16336. understand the person. To understand the person, you must listen. To listen,
  16337. you must open your mind and put aside all preconceived ideas and notions.
  16338.  
  16339. Approved: parallel@hubcap.clemson.edu
  16340. Follow-up: comp.parallel
  16341. Path: bounce-back
  16342. Newsgroups: comp.parallel
  16343. From: ielavkow@techunix.technion.ac.il (Levkovitz Roni)
  16344. Subject: Re: Ordering in sparse Cholesky factorization
  16345. Organization: Technion, Israel Institute of Technology
  16346. References: <1993Oct19.154910.15684@hubcap.clemson.edu>
  16347.  
  16348. bharat kumar (kumar-b@cis.ohio-state.edu) wrote:
  16349. : I'm looking for papers on ordering of symmetric positive definite matrices to
  16350. : minimize fill-in and maximize parallelism, and the mapping of computation to
  16351. : processors.
  16352.  
  16353. Try to look at papers by George, Liu, Ashcroft, Heath, Ng etc... For example :
  16354.  
  16355. Alan George, Michael Heath, Joseph Liu, Esmond MG, Solution of sparse positive definite
  16356. matrices on a hypercube, Journal of Computational and Applied Mathematics 27 (1989), pp 183-209.
  16357.  
  16358. You can find most of the relevant references in the bibliography directory of Netlib in the matrix 
  16359. and parallel computation bib files.
  16360.  
  16361.  
  16362.  
  16363.  
  16364. Roni Levkovitz
  16365.  
  16366. ielavkow@techunix.technion.ac.il
  16367.  
  16368. Approved: parallel@hubcap.clemson.edu
  16369. Follow-up: comp.parallel
  16370. Path: bounce-back
  16371. Newsgroups: comp.parallel
  16372. From: ielavkow@techunix.technion.ac.il (Levkovitz Roni)
  16373. Subject: Re: terminology question
  16374. Message-ID: <CFI0ur.LH0@discus.technion.ac.il>
  16375. Organization: Technion, Israel Institute of Technology
  16376. References: <1993Oct20.121916.28264@hubcap.clemson.edu>
  16377.  
  16378. Greg Wilson (EXP 31 dec 93) (Greg.Wilson@cs.anu.edu.au) wrote:
  16379. : I have always used the term "star" to refer to a topology in which every processor
  16380. : is connected to every other; however, I am told that the term is also used for
  16381. : topologies in which processors 1..N are connected to a distinguished central
  16382. : processor 0.  Assuming that the latter definition is more common, is there a term
  16383. : for topologies of the former type?
  16384.  
  16385. : Thanks,
  16386.  
  16387. : Greg Wilson
  16388.  
  16389. As far as I know, star topology is the later one.  The first topology is sometimes refered to
  16390. as full connectivity network but usually we call it clique topology
  16391.  
  16392.  
  16393.  
  16394.  
  16395. Roni Levkovitz
  16396.  
  16397.     
  16398.  
  16399. Approved: parallel@hubcap.clemson.edu
  16400. Follow-up: comp.parallel
  16401. Path: bounce-back
  16402. Newsgroups: comp.parallel
  16403. Date: Tue, 26 Oct 93 12:25:52 GMT
  16404. From: Douglas Hanley <dgh@dcs.ed.ac.uk>
  16405. Subject: Paralation
  16406.  
  16407.  
  16408. This query concerns itself with Gary Sabot's Paralation Model of
  16409. Parallel Computation.  Currently I am attempting to implement the
  16410. Match and Move operators of this programming model across a MIMD
  16411. architecture in order access its performance characteristics (to date,
  16412. I think it has only been implemented on SIMD and Vector parallel
  16413. platforms).  I intend to use C as the base language to be extended
  16414. with Match & Move.  I know that a language called Paralation C was
  16415. being experimented with in 1988 and I would like to hear from anybody
  16416. who knows where I can get further information on it's current state or
  16417. has personal experience of it.  In addition I would be grateful to
  16418. hear from anybody who has any experience or information regarding
  16419. attempts to implement this programming model in any base language on
  16420. MIMD platforms.  Thanks in advance for any help...
  16421.  
  16422.  
  16423.  
  16424.  
  16425.  
  16426.  
  16427.  
  16428.  
  16429. Approved: parallel@hubcap.clemson.edu
  16430. Follow-up: comp.parallel
  16431. Path: bounce-back
  16432. Newsgroups: comp.parallel
  16433. From: " (Guido Haechler)" <haechler@sally.ifi.unibas.ch>
  16434. Subject: DEADLINE CONTEST: HOW TO WIN A SWISS TOBLERONE CHOCOLATE!
  16435. Organization: Institut fuer Informatik
  16436.  
  16437.  
  16438. DEADLINE OF THE
  16439.  
  16440. CONTEST: HOW TO WIN A SWISS TOBLERONE CHOCOLATE!
  16441.  
  16442. Dear participants of the tripuzzle contest. The contest started very slow  
  16443. (not concerning execution time, but concerning the number of entries). In  
  16444. the meantime there have been a reasonable amount of peoples joining the  
  16445. contest. We decided to fix the deadline of this contest for: 
  16446. (5. Nov. 93)
  16447.  
  16448. 555555        N     N                       999    333  
  16449. 5             NN    N                      9   9  3   3
  16450. 5             N N   N    OOO   V     V     9   9      3
  16451. 55555         N  N  N   O   O  V     V      9999    33
  16452.      5        N   N N   O   O   V   V          9      3
  16453.      5   ..   N    NN   O   O    V V  ..       9  3   3
  16454. 55555    ..   N     N    OOO      V   ..    999    333
  16455.  
  16456. After this date we will post a final ranking and send the proposed  
  16457. toblerone
  16458. chocolate to the winner(s).
  16459.  
  16460. Guido & Stephan
  16461.  
  16462.  
  16463. PS: please send mail from now on to haechler@ifi.unibas.ch
  16464.  
  16465. Approved: parallel@hubcap.clemson.edu
  16466. Follow-up: comp.parallel
  16467. Path: bounce-back
  16468. Newsgroups: comp.parallel
  16469. From: sims@ucrengr.ucr.edu (david sims)
  16470. Subject: Simulating coherency protocols in a DSM system
  16471. Organization: University of California, Riverside   (College of Engineering/Computer Science)
  16472.  
  16473. hi all,
  16474.  
  16475. I have some coherency protocols for a distributed shared memory (DSM)
  16476. system that I want to simulate.  The protocols exhibit sequential
  16477. consistency, weak consistency, release consistency, etc.  Is there
  16478. some kind of testbed or simulation package that I could use to
  16479. simulate these protocols under varying conditions?
  16480.  
  16481. thanks for any information
  16482.  
  16483. --
  16484. David L. Sims                                Department of Computer Science
  16485. sims@cs.ucr.edu                              University of California
  16486. +1 (909) 787-6437                            Riverside CA  92521-0304
  16487. PGP encryption key available on request.     USA
  16488. Approved: parallel@hubcap.clemson.edu
  16489. Follow-up: comp.parallel
  16490. Path: bounce-back
  16491. Newsgroups: comp.parallel
  16492. From: Patrick F. McGehearty <patrick@convex.COM>
  16493. Subject: Re: The Future of Parallel Computing
  16494. Reply-To: patrick@convex.COM (Patrick F. McGehearty)
  16495. References: <1993Oct14.131912.9126@hubcap.clemson.edu> <1993Oct19.154929.15823@hubcap.clemson.edu>
  16496.  
  16497. In article <1993Oct19.154929.15823@hubcap.clemson.edu> dbader@eng.umd.edu (David Bader) writes:
  16498. ...
  16499. >   We are now in an age when the high performance machines have
  16500. >various data network topologies, i.e. meshes, torii, linear arrays,
  16501. >vector processors, hypercubes, fat-trees, switching networks, etc..
  16502. >etc.. These parallel machines might all have sexy architectures, but
  16503. >we are headed in the wrong direction if we don't take a step back and
  16504. >look at the future of our work.  We shouldn't have to rewrite our
  16505. >algorithms from scratch each time our vendor sells us the latest
  16506. >hardware with amazing benchmarks.  Benchmarks should also be
  16507. >attainable from STANDARD compiler options.  We should NOT have to
  16508. >streamline routines in assembly language, give data layout directives,
  16509. >nor understand the complexities of the hardware and/or data network.
  16510. >
  16511. >  Please let me know what you think,
  16512.  
  16513. I both agree and disagree with your comments.
  16514. To break out of a narrow niche, high performance machines must be easy
  16515. to use.  Otherwise, only the most dedicated will attempt to benefit from
  16516. them.  Portability of existing applications is critical for broad success.
  16517.  
  16518. However, there will always be those who have a need for absolute
  16519. top end performance in limited applications.  For them, the limited
  16520. cost of tuning one or two applications to unique architectures will be
  16521. justifiable for the dramatic increases in performance.  I even argue that
  16522. the rest of high performance computing ultimately benefit from these
  16523. specialized efforts.  Without them, vector computers would never have been
  16524. built in the first place, and now vector computers are almost as easy to use
  16525. as conventional computers.
  16526.  
  16527. Finally, anyone at all concerned about performance needs to have some
  16528. understanding of factors affecting performance.  This knowledge includes
  16529. such mundane details as the value of caches and stride one memory access vs
  16530. non-stride one memory access.  See "High Performance Computing" by
  16531. Kevin Dowd [ISBN 1-566592-032-5] for a good intro on the subject.
  16532. Parallel architectures will have new issues as compared to workstations
  16533. or vector machines, but as they become more widespread, we will gain
  16534. a body of knowledge about what works and what to avoid.  While some things
  16535. will be machine specific, others will apply across a range of architectures.
  16536.  
  16537. - Patrick McGehearty
  16538.   patrick@convex.com
  16539.  
  16540. Approved: parallel@hubcap.clemson.edu
  16541. Follow-up: comp.parallel
  16542. Path: bounce-back
  16543. Newsgroups: comp.parallel
  16544. Date: Tue, 26 Oct 93 07:29:22 PDT
  16545. From: hecht@oregon.cray.com
  16546. Subject: CS 6400
  16547.  
  16548. NEW CRAY RESEARCH SUPERSERVERS COMBINE STRONG
  16549. PRICE-PERFORMANCE, RAS FEATURES, LARGE NUMBER OF
  16550. APPLICATIONS FOR COMMERCIAL AND TECHNICAL DATA
  16551. CENTERS
  16552.  
  16553. With up To 64 Processors, CS6400 Products Are World's
  16554. Fastest SPARC/Solaris Systems
  16555.  
  16556. SAN FRANCISCO, Oct. 25, 1993 --  Cray Research Superservers
  16557. (CRS), the Ore.-based subsidiary of Cray Research, Inc.
  16558. (NYSE:CYR), today announced a new Superserver product line. 
  16559. Martin Buchanan, general manager of CRS, said the new CRAY
  16560. SUPERSERVER 6400 (CS6400) systems, with up to 64
  16561. processors, are the world's fastest and most expandable
  16562. SPARC/Solaris-compliant systems.
  16563.  
  16564. "Our's are the first high-end servers to combine the strong
  16565. price-performance of Sun products with the reliability,
  16566. availability and serviceability (RAS) features data center
  16567. managers expect," Buchanan said.
  16568.  
  16569. "The CS6400 products are enterprise servers aimed at the
  16570. rightsizing' market, especially commercial and technical data
  16571. centers concerned about the high cost of upgrading and running
  16572. mainframe systems," he said.   The products were developed by
  16573. CRS under a Jan. 1992 technology agreement between Cray
  16574. Research and Sun Microsystems, Inc., Mountain View, Calif.,
  16575. and are a binary-compatible upward extension of Sun's product
  16576. line.   
  16577.  
  16578. "The SPARC architecture is a powerful foundation for cost-
  16579. effective scalability," said Scott McNealy, Sun chairman and
  16580. chief executive officer.  "The Sun and CRS product lines will
  16581. form a price-performance continuum from SPARCclassics to
  16582. SPARCcenter servers to the new CS6400 products.  Sun users
  16583. who require more power on the network can move to the binary-
  16584. compatible CS6400 systems with no migration problems."  The
  16585. CS6400 systems run the current version of Sun's Solaris
  16586. operating environment, which is an implementation of UNIX
  16587. System V Release 4,  he said.   "Any program that runs on a Sun
  16588. system will run on the new CRS systems without modification,
  16589. and vice versa."
  16590.  
  16591. "With the CS6400, CRS will address commercial markets with
  16592. non-traditional Cray applications," said Lester Davis, Cray
  16593. Research chief operating officer.  "That's why CRS is
  16594. organized as a separate business unit with its own hardware
  16595. and software development capabilities.  Martin Buchanan has
  16596. assembled a strong marketing and sales team with many years
  16597. of experience selling into commercial markets, as well as into
  16598. the technical computing arena.   We're confident that the
  16599. enterprise server market is ready to move to Cray Research
  16600. added value, especially when this is available on the same
  16601. price-performance curve as Sun products." 
  16602.  
  16603. Buchanan said CS6400 systems are expandable and can scale
  16604. with customers' data processing needs.  The systems are
  16605. offered with four to 64 SuperSPARC RISC microprocessors
  16606. (initially at 60 MHz), 256 megabytes (million bytes) to 16
  16607. gigabytes (billion bytes) of central memory, 1.3 gigabytes per
  16608. second peak memory bandwidth, and more than two terabytes
  16609. (trillion bytes) of online disk storage.  U.S. pricing begins at
  16610. under $400,000 for the four-processor version, and at $2.5
  16611. million for the top-of-the-line 64-processor system.   He said
  16612. CRS expects to sell hundreds of the new systems.
  16613.  
  16614. Initial shipments of the new systems will begin in late 1993,
  16615. Buchanan said.  Volume shipments are scheduled to begin in
  16616. first-quarter 1994.   CRS is working with customers and
  16617. prospects in the traditional Sun and Cray Research markets, as
  16618. well as new markets.  CRS is in negotiations with several
  16619. organizations in the electronic computer-aided design (ECAD),
  16620. transportation/distribution, manufacturing, university and
  16621. electric utility markets and will announce these customers
  16622. when order agreements are signed, Buchanan said.  Separately
  16623. today, CRS announced that SICAN, a leading German
  16624. microelectronics firm, has ordered a CS6400 system.  SICAN is
  16625. scheduled to receive a 48-processor system by mid-1994. 
  16626.  
  16627. According to Buchanan, the large number of applications
  16628. available on SPARC/Solaris systems was an important
  16629. attraction for CRS.  "We are leveraging SPARC's leadership in
  16630. the RISC market through binary compatibility with Sun's
  16631. product line.   As we work with independent software vendors
  16632. to have their products supported, technical ports are not an
  16633. issue."   Buchanan cited a 1992 International Data Corporation
  16634. study showing SPARC with a 57 percent marketshare for the
  16635. UNIX RISC market. 
  16636.  
  16637. Buchanan said CRS is in discussions with several major
  16638. developers of key software packages and connectivity
  16639. products, including relational database management systems
  16640. (RDBMS), transaction processing monitors, fourth generation
  16641. languages, computer-aided software engineering (CASE) tools,
  16642. report generation packages, hierarchical storage management
  16643. (HSM) solutions and mainframe connectivity tools.  He said CRS
  16644. recently benchmarked Oracle, the most popular database
  16645. server, on an early version CS6400 system.  
  16646.  
  16647. "On the benchmark, which simulated 500 users accessing,
  16648. updating and querying data, the CS6400 performed comparable
  16649. to a mid-range mainframe system, which would cost more than
  16650. $5 million, five times that of the 16-processor CS6400
  16651. system benchmarked," said Darshan Karki, president of
  16652. SuperSolutions Corp., Minneapolis, a firm that re-engineers
  16653. enterprise-wide applications and system software and
  16654. assisted CRS with the recent Oracle benchmark. 
  16655.  
  16656. Initial target markets for the new systems are: ECAD,
  16657. financial service and investment banking, general engineering,
  16658. government, petroleum, and telecommunications.  According to
  16659. A.J. Berkeley, CRS senior director of sales and marketing, CRS
  16660. will market and sell the new products through its own
  16661. dedicated international sales force, the Cray Research sales
  16662. force, a global network of systems integrators and value-
  16663. added resellers (VARs), and joint initiatives with Sun.  "Sun
  16664. has been extremely helpful in pointing us toward some of the
  16665. right parties and we've supplemented this with our own
  16666. contacts.  We expect to announce key agreements later this
  16667. year," he said
  16668.  
  16669. According to Buchanan, "Our relationship with Sun goes beyond
  16670. merely licensing their technology.  We are working closely
  16671. with several Sun business units on interoperability and general
  16672. hardware and software engineering for future systems."
  16673.  
  16674. He said the CS6400 systems bring together Sun hardware and
  16675. software technology with Cray Research value-added features
  16676. for high performance and system reliability and serviceability.  
  16677. "The CS6400 delivers features to the open systems
  16678. environment that the data center users have enjoyed for
  16679. years," Buchanan said.   "The new system has built-in
  16680. reliability, availability and serviceability features -- a first
  16681. in the high-end, open systems server arena." 
  16682.  
  16683. For example, should a component fail, the system
  16684. automatically reboots, isolates the fault, and reconfigures
  16685. itself.  Uptime is further maximized with "hot swap"
  16686. capabilities, which allow a failed module to be removed and
  16687. replaced in the system while it's still running, Buchanan said.  
  16688. Upgrades can also be done while the system is online.  An
  16689. independent service processor performs online and remote
  16690. diagnostics, logging, and monitoring functions and data is
  16691. protected through features such as disk mirroring, page
  16692. isolation, and memory scrubbing, he said.   
  16693.  
  16694. "There are many exciting aspects about CRS and its
  16695. Superserver," said Jim Johnson, chairman of The Standish
  16696. Group, a market research firm based in South Yarmouth, Mass. 
  16697. "Most important is the availability of Cray's high-end
  16698. technology while following a pricing strategy similar to Sun's. 
  16699. The key data center management products...will give the kind
  16700. of performance and quality that mission-critical applications
  16701. require.  The CRS Superserver will have some of the features
  16702. that data center managers take for granted that are not in
  16703. today's UNIX servers.  These are essential features and people
  16704. will look very favorably on them at the kind of price and
  16705. performance CRS offers."
  16706.  
  16707. Buchanan said Cray Research was the first high-performance
  16708. computing company to embrace the UNIX standard.  "Over the
  16709. past decade, Cray Research has substantially enhanced UNICOS,
  16710. the company's 64-bit symmetric multiprocessing
  16711. implementation of the UNIX operating system.  Many key
  16712. features of Cray's supercomputing environment -- such as
  16713. sophisticated tape management, networked batch processing,
  16714. systems management software, program debugging tools and
  16715. high-performance compilers -- will also be important for
  16716. commercial and technical users of the CS6400 systems and
  16717. will be available in 1994."
  16718.  
  16719. CRS also announced today that:
  16720.  
  16721. o CRS has signed a memorandum of understanding with Sun
  16722.   Microsystems Computer Corporation for SunIntegration
  16723.   Services to become a reseller of the CS6400 system;
  16724. o Electricite' de France, the world's largest electrical
  16725.   utility, Clamart, France, will be an early customer for
  16726.   CRS' new CS6400 system;
  16727. o CRS has signed a memorandum of understanding with
  16728.   Oracle to make Oracle7 available on the new CS6400
  16729.   systems; 
  16730. o CRS has signed a memorandum of understanding with the
  16731.   ASK Group, developers of the ASK INGRES Intelligent
  16732.   Database system, to make the INGRES database product
  16733.   available on the CS6400 system; 
  16734. o INFORMIX-OnLine will be available on the CS6400
  16735.   systems; 
  16736. o Sybase, Inc.'s support for Cray Research's high-end
  16737.   SPARC/Solaris-compatible strategy; 
  16738. o CRS has signed an agreement with Brixton Systems, Inc.,
  16739.   Cambridge, Mass., to make available on the CS6400
  16740.   system Brixton's suite of connectivity software, which
  16741.   links IBM mainframes with open systems computers,
  16742.   enabling data to be shared between these systems; 
  16743. o CRS and Information Management Company (IMC) have
  16744.   signed an agreement for IMC to make Open TransPort for
  16745.   MVS and TUXEDO transaction processing system available
  16746.   on the CS6400 system;
  16747. o CRS and T-Mass GmbH have signed an agreement for T-
  16748.   Mass to support and distributed UniTree on the CS6400
  16749.   systems; and 
  16750. o CRS has signed an agreement with JYACC, Inc. to provide
  16751.   its JAM Version 6 Application Development Toolset on
  16752.   the CS6400. 
  16753.  
  16754. CRS is dedicated to creating the world's leading
  16755. SPARC/Solaris-compliant computer systems. 
  16756.  
  16757. Cray Research creates the most powerful, highest-quality
  16758. computational tools for solving the world's most challenging
  16759. scientific and industrial problems. 
  16760.  
  16761. ###
  16762.  
  16763.  
  16764.  
  16765.  
  16766. -- 
  16767.  
  16768. -- Conrad Anderson
  16769.    Employee Communications
  16770.    (612) 683-7338
  16771.  
  16772. Approved: parallel@hubcap.clemson.edu
  16773. Follow-up: comp.parallel
  16774. Path: bounce-back
  16775. Newsgroups: comp.parallel
  16776. From: sevans@news.weeg.uiowa.edu (Scott A Evans)
  16777. Message-ID: <1993Oct26.145208.25359@news.weeg.uiowa.edu>
  16778. Organization: University of Iowa, Iowa City, IA, USA
  16779.  
  16780. I'm looking for some benchmark information on parallel routing
  16781. algorithms.  Does anyone have some pointers that they could give me to
  16782. lead me in the right direction?
  16783.  
  16784. Thanks!
  16785. Scott
  16786.  
  16787.  
  16788. Approved: parallel@hubcap.clemson.edu
  16789. Follow-up: comp.parallel
  16790. Path: bounce-back
  16791. Newsgroups: comp.parallel
  16792. From: icw@ecs.soton.ac.uk (I C Wolton)
  16793. Subject: RAPS Workshop
  16794. Date: 27 Oct 93 11:04:12 GMT
  16795. Organization: Electronics and Computer Science, University of Southampton
  16796.  
  16797. I posted this before but it doesn't seem to have got through so here
  16798. goes again ....
  16799.  
  16800.  
  16801.                RAPS Open Workshop on Parallel Benchmarks
  16802.                         and Programming Models
  16803.  
  16804.            Chilworth Manor Conference Centre, Southampton, UK
  16805.  
  16806.                            7-8 Dec 1993
  16807.  
  16808.  
  16809.  
  16810. Workshop Overview
  16811. -----------------
  16812.  
  16813. This workshop will review recent developments in programing models for
  16814. parallel applications, outline the features of some of the RAPS parallel
  16815. benchmarks and present some complementary international initiatives. 
  16816. The final session will give the vendors an opportunity to
  16817. present the results of the RAPS benchmarks on their latest machines.
  16818.  
  16819.  
  16820.  
  16821. The RAPS Consortium
  16822. -------------------
  16823.  
  16824. The RAPS consortium was put together to promote the creation
  16825. of benchmarks for important production applications on massively-parallel
  16826. computers (RAPS stands for Real Applications on Parallel Systems). 
  16827. As part of this activity it has a strong interest in adopting a 
  16828. programming model that can provide portability without excessive
  16829. sacrifice of performance. The consortium consists of a number of
  16830. users and developers of significant large production codes running
  16831. on supercomputers. It is supported by a Consultative Forum
  16832. of computer manufacturers which currently includes Convex, Cray,
  16833. Fujitsu, IBM, Intel and Meiko.
  16834.  
  16835. Codes being worked on for the RAPS benchmark suite include:
  16836.  
  16837. PAM-CRASH  - a finite element code mainly used for car crash simulations 
  16838.                   
  16839. IFS/ARPEGE - a global atmospheric simulation code used for meteorology
  16840.              and climatology 
  16841.  
  16842. FIRE       - a fluid flow code used for automotive flow simulations 
  16843.  
  16844. GEANT      - used by CERN to simulate the interaction of high-energy
  16845.              particle showers with detectors 
  16846.  
  16847.  
  16848.  
  16849. Provisional Programme
  16850. ---------------------
  16851.  
  16852. The workshop will be held over two days, starting after lunch on
  16853. Tuesday 7th December and finishing at lunchtime on Wednesday 8th
  16854. December. Lunch will be available on both days. 
  16855.  
  16856.  
  16857. Tuesday 7 Dec, Afternoon
  16858.  
  16859.  
  16860.        Current status of RAPS
  16861.        Karl Solchenbach, PALLAS
  16862.  
  16863.        ESPRIT Application porting activities
  16864.        Adrian Colebrook, Smith, Guildford
  16865.  
  16866.        The Proposed Message Passing Interface Standard (MPI)
  16867.        Ian Glendinning, University of Southampton
  16868.  
  16869.        Distributed Fortran Compiler Techniques
  16870.        Thomas Brandes, GMD 
  16871.  
  16872.        Impact of Cache on Data Distribution
  16873.        Richard Reuter, IBM Heidelberg
  16874.  
  16875.  
  16876. Workshop Dinner
  16877.  
  16878.  
  16879. Wed 8 Dec, Morning
  16880.  
  16881.         The PEPS Benchmarking Methodolgy
  16882.         Ed Brocklehurst, National Physical Laboratory
  16883.  
  16884.         The PARKBENCH Initiative
  16885.         Tony Hey, University of Southampton
  16886.  
  16887.         The IFS spectral model: the 3D version with some preliminary results
  16888.         David Dent, ECMWF
  16889.  
  16890.         Vendor's Presentation of Results for the RAPS Benchmarks
  16891.  
  16892.  
  16893. Registration Details
  16894. --------------------
  16895.  
  16896. The registration fee is 120 pounds sterling, including lunch and refreshments.
  16897.  
  16898. An optional workshop dinner is being arranged at 25 pounds per head.
  16899.  
  16900. Accomodation is available at Chilworth Manor for 54.50 pounds per night.
  16901.  
  16902.  
  16903. Cheques should be made payable to "University of Southampton"
  16904.  
  16905. Bookings and enquiries to:
  16906.  
  16907.  
  16908. Chris Collier
  16909. Electronics & Computer Science
  16910. Highfield
  16911. University of Southampton
  16912. Southampton S09 5NH                          
  16913.  
  16914. Tel: 0703 592069                            
  16915. Fax: 0703 593045                           
  16916. Email: cdc@ecs.soton.ac.uk 
  16917.  
  16918.  
  16919.  
  16920. This form should be returned to the conference organiser, Chris Collier.
  16921.  
  16922. Name  .......................................................
  16923.  
  16924. Organisation  ...............................................
  16925.  
  16926. Address  ....................................................
  16927.  
  16928.          ....................................................
  16929.  
  16930. Telephone  ..................................................
  16931.  
  16932. Email  ......................................................
  16933.  
  16934.  
  16935. Special Dietary Requirements ................................
  16936.  
  16937. .............................................................
  16938.  
  16939. Registration (Price in Pounds Sterling) :   50.00
  16940.  
  16941.  
  16942. I would like accomodation at 52.50 pounds per night for the nights of 
  16943.  
  16944. .............................................................
  16945.  
  16946. I would like to attend the workshop dinner at 25 pounds ...... Yes/No
  16947.  
  16948. TOTAL FEE ENCLOSED  ...............................................
  16949.  
  16950.  
  16951.  
  16952.  
  16953.  
  16954.  
  16955.  
  16956.  
  16957. Approved: parallel@hubcap.clemson.edu
  16958. Follow-up: comp.parallel
  16959. Path: bounce-back
  16960. Newsgroups: comp.parallel
  16961. From: ali@pyra.co.uk (Ali Shirnia)
  16962. Subject: Q: IBM MPP system
  16963. Reply-To: ali@pyra.co.uk (Ali Shirnia)
  16964. Organization: Pyramid Technology Ltd.
  16965.  
  16966. I need to understand the architecture of the IBM MPP system. Can any one
  16967. help with references? papers? etc?
  16968.  
  16969. Thanks
  16970.  
  16971.       -m--------  Ali Shirnia            Phone : +44 252 373035
  16972.     ---mmm------  Pyramid Technology     Fax   : +44 252 373135
  16973. -------mmmmmmm--  pyramid!pyrltd!ali     <England>!ukc!pyrltd!ali
  16974. -------mmmmmmmm-  ali@pyra.co.uk
  16975.  
  16976. Approved: parallel@hubcap.clemson.edu
  16977. Follow-up: comp.parallel
  16978. Path: bounce-back
  16979. From: sitarama@cps.msu.edu (Kocherlakota Sitarama)
  16980. Newsgroups: sci.math,comp.theory,comp.parallel
  16981. Subject: Journal Article Acceptance timings
  16982. Organization: Department of Computer Science, Michigan State University
  16983.  
  16984. hello --
  16985.  
  16986.     Do you know of any statistics on the average delay 
  16987.     between journal article submission dates -to- journal article
  16988.     acceptance notification dates (not published date) ?
  16989.  
  16990.     I will be interested in Journals which relate to all areas of 
  16991.     computer science and math journals which cover a significant
  16992.     computer science articles (ex. Descrete Math. J. Graph Theory
  16993.     etc.,).  
  16994.  
  16995.     Thanks in advance,
  16996.  
  16997.     Swamy
  16998.  
  16999. Approved: parallel@hubcap.clemson.edu
  17000. Follow-up: comp.parallel
  17001. Path: bounce-back
  17002. Newsgroups: comp.parallel
  17003. From: steved@liv.ac.uk (Mr. S.T. Downing)
  17004. Subject: SYMPOSIUM: Developments in Parallel Computing
  17005. Organization: The University of Liverpool
  17006.  
  17007. Please see attached programme.  If you are interested in attending, please 
  17008. return the attached booking form by e-mail, or post as soon as possible. 
  17009.  
  17010. If you have any queries please do not hesitate to contact either Sheila Bilton
  17011. on Jacqui Cowan on 051 794 4710.
  17012.  
  17013.  
  17014.  
  17015.                                     
  17016.                       International Developments in
  17017.                            Parallel Computing
  17018.                                     
  17019.                                     
  17020.                        November 9th and 10th 1993
  17021.                                     
  17022.                 A Two-day Symposium organised by ACT-UETP
  17023.                                 and the 
  17024.            Institute of Advanced Scientific Computation (IASC
  17025.                          University of Liverpool
  17026.  
  17027.  
  17028.  
  17029.                                 PROGRAMME
  17030.  
  17031.  
  17032. Tuesday November 9th 1993
  17033.  
  17034. 9.30am    Parallel Supercomputing - A Review of Activities at Daresbury Laboratory
  17035.           Dr. Rob Allan, Daresbury Laboratory, Warrington
  17036.  
  17037. 10.30am   COFFEE
  17038.  
  17039. 10.45am   New Generations of MPP Platforms
  17040.           Mr. Steve Kitt, Parsys Ltd., London
  17041.  
  17042. 11.45pm   The Centre for Novel Computing:  Computing the Future.
  17043.           Mr. Tom Franklin
  17044.  
  17045. 12.45pm   LUNCH
  17046.  
  17047. 1.45pm    A Supercomputer MPP - the Cray T3D
  17048.           Mr. John Fleming, Cray Research, Bracknell
  17049.  
  17050. 2.45pm    The Meiko CS-2MPP Architecture
  17051.           Dr. John Taylor, Meiko Ltd., Bristol
  17052.  
  17053. 3.45pm    TEA
  17054.  
  17055. 4.00pm    Opportunity for discussion and demonstrations
  17056.  
  17057. 5.00pm    CLOSE
  17058.  
  17059.  
  17060. PROGRAMME
  17061.  
  17062.  
  17063. Wednesday, November 10th, 1993.
  17064.  
  17065. 9.30am    Evolution of Supercomputer Architectures
  17066.           Professor Mateo Valero, Technical University of Catalunya, 
  17067.           Barcelona, Spain
  17068.  
  17069. 10.30          COFFEE
  17070.  
  17071. 10.45am   Benchmarking for Distributed Memory Parallel Systems:
  17072.           Gaining Insight from Numbers
  17073.           Dr. Cliff Addison, IASC, University of Liverpool
  17074.  
  17075. 11.45am   RUBIS:  "Runtime Basic Interface System" for Transputer based machines
  17076.           M. R. Pathenay, Telmat Informatique, France
  17077.  
  17078. 12.45          LUNCH
  17079.  
  17080. 1.45pm    Parallel Matrix Kernels
  17081.           Dr. Ken Thomas, University of Southampton
  17082.  
  17083. 2.45pm    Problem Solving Environments
  17084.           Professor Theodorou Papatheudorou
  17085.           University of Patras, Greece
  17086.  
  17087. 3.45pm    TEA
  17088.  
  17089. 4.00pm    Performance Evaluation and Monitoring tools
  17090.           Kostas Pantazopoulous, First Informatics, Patras, Greece
  17091.  
  17092. 5.00pm    CLOSE
  17093.  
  17094.  
  17095. BOOKING INFORMATION
  17096.  
  17097. Venue:    The University of Liverpool.  
  17098.           Full details to be sent to all delegates.
  17099.  
  17100. Cost:          ACT-UETP members and academics:-
  17101.           1 day:         65.00
  17102.           2 days    100.00
  17103. Others    1 day:         95.00
  17104.           2 days:   150.00
  17105.  
  17106. The cost includes course materials, coffee, tea and lunch.  
  17107. Reasonably priced overnight accommodation can be booked on request.  
  17108. The University of Liverpool reserves the right to change programme details.
  17109.  
  17110. Booking form (Please highlight as appropriate)
  17111.  
  17112. Please reserve a place on the Symposium "International Developments in Parallel
  17113. Computing",
  17114. on:
  17115.  
  17116.      Tuesday November 9th
  17117.  
  17118.      Wednesday November 10th
  17119.  
  17120. Name                     Position
  17121.  
  17122. Organisation
  17123.  
  17124. Address
  17125.  
  17126. Phone No:                Fax No:
  17127.  
  17128. My Organisation is a member of ACT-UETP
  17129.  
  17130. Please let me have details of overnight accommodation
  17131.  
  17132. I enclose a cheque for .................. to cover the symposium fee
  17133.  
  17134.  
  17135. Please invoice me        Signature 
  17136.  
  17137. Please return form to:
  17138.  
  17139. e-mail:  iasc@liv.ac.uk
  17140.  
  17141. Sheila Bilton, Institute of Advanced Scientific Computation, 
  17142. University of Liverpool, Victoria Building, Brownlow Hill, Liverpool, 
  17143. L69 3BX.   Telephone +44 51 794 4552
  17144. Fax +44 51 794 4754
  17145.  
  17146.  
  17147.  
  17148.  
  17149. Approved: parallel@hubcap.clemson.edu
  17150. Follow-up: comp.parallel
  17151. Path: bounce-back
  17152. Newsgroups: comp.parallel
  17153. From: csmort@unix1.sncc.lsu.edu (Donald Morton)
  17154. Subject: Request for T3D info
  17155. Organization: Louisiana State University InterNetNews Site(test mode)
  17156.  
  17157. I recently saw a subject heading which I believe was in this
  17158. newsgroup concerning some information on the T3D architecture.
  17159. Since I'm new to these newsgroups, I'm still stumbling along,
  17160. losing interesting postings, etc.!  If anyone knows about
  17161. available documentation on the T3D, I'd be very appreciative
  17162. if they shared it with me.
  17163.  
  17164. Thanks in advance,
  17165.  
  17166. Don Morton
  17167. Dept. Computer Science
  17168. Louisiana State University
  17169.  
  17170.  
  17171. Approved: parallel@hubcap.clemson.edu
  17172. Follow-up: comp.parallel
  17173. Path: bounce-back
  17174. Newsgroups: comp.parallel
  17175. Date: Wed, 27 Oct 93 15:30:40 +0100
  17176. From: lmr@pimac2.iet.unipi.it (Leonardo Reyneri)
  17177. Subject: Microneuro 94
  17178.  
  17179.  
  17180. ****************************************************************************
  17181.  
  17182.  
  17183.                            MICRONEURO 94  
  17184.  
  17185.                 The Fourth International Conference
  17186.               on Microelectronics for Neural Networks
  17187.                          and Fuzzy Systems
  17188.   
  17189.                  Torino (I), September 26-28, 1994  
  17190.                        FIRST CALL FOR PAPERS  
  17191.  
  17192.  
  17193. This conference is the fourth in a series of international conferences
  17194. dedicated to all aspects of hardware implementations of Neural Networks
  17195. and Fuzzy Systems. 
  17196. MICRONEURO has emerged as the only international forum devoted
  17197. specifically to all hardware implementation aspects, giving particular
  17198. weight to those interdisciplinary issues which affect the design of
  17199. Neural and Fuzzy hardware directly. 
  17200.  
  17201.  
  17202. TOPICS 
  17203.  
  17204. The conference program will focus upon all aspects of hardware
  17205. implementations of Neural Networks and Fuzzy Systems and their
  17206. applications in the real world. Topics will concentrate upon the
  17207. following fields:
  17208.  
  17209.  - Analog and mixed-mode implementations 
  17210.  - Digital implementations 
  17211.  - Optical systems 
  17212.  - Pulse-Stream computation 
  17213.  - Weightless Neural systems 
  17214.  - Neural and Fuzzy hardware systems 
  17215.  - Interfaces with external world 
  17216.  - Applications of dedicated hardware 
  17217.  - VLSI-friendly Neural algorithms 
  17218.  - New technologies for Neural and Fuzzy Systems 
  17219.  
  17220. Selection criteria will be based also on technical relevance, novelty
  17221. of the approach and on availability of performance measurements for the 
  17222. system/device.
  17223.  
  17224.  
  17225. INFORMATION FOR AUTHORS 
  17226.  
  17227. All submitted material (written in English) will be refereed and should
  17228. be typed on A4 paper, 1-1/2 spaced, 12 point font, 160x220 mm text size.
  17229. All accepted material will appear in the proceedings. 
  17230.  
  17231. PAPERS should not exceed 10 pages including figures and text. 
  17232. Also reports on EARLY INNOVATIVE IDEAS will be considered for presentation.
  17233. In this case the submission should be a short description of the novel
  17234. idea, not exceeding 6 pages in length, and it must be clearly marked
  17235. ``Innovative Idea''.
  17236.  
  17237. The most interesting papers and ideas will be published in a special
  17238. issue of IEEE MICRO.
  17239.  
  17240.  
  17241. SUBMISSIONS 
  17242.  
  17243. Six copies of final manuscripts, written according to the above 
  17244. requirements, shall be submitted to the Program Chairman.
  17245. Submissions arriving late or significantly departing from length
  17246. guidelines, or papers published elsewhere will be returned without
  17247. review. Electronic versions of the submission (possibly in LATEX
  17248. format) are kindly welcome.
  17249.  
  17250.  
  17251. DEADLINES 
  17252.  
  17253. Submission of paper and/or ideas        May 30, 1994 
  17254. Notification of acceptance              July 15, 1994  
  17255.  
  17256.  
  17257. THE WORKSHOP VENUE 
  17258.  
  17259. The venue of MICRONEURO '94 is Torino, the historic and beautiful center 
  17260. of Piemonte. The town is surrounded by the highest mountains in Europe 
  17261. and by beautiful hills and landscapes. The region is also famous for 
  17262. its excellent wines.
  17263.  
  17264. MICRONEURO '94 will be held at the Politecnico di Torino.
  17265. The venue is conveniently located close to
  17266. the town centre, with many restaurants and cafes close by. 
  17267.  
  17268.  
  17269. General Chair:
  17270.  
  17271. H.P. Graf
  17272. AT T Bell Laboratories 
  17273. Room 4 G 320
  17274. HOLMDEL, NJ 07733 - USA
  17275. Tel. +1 908 949 0183 
  17276. Fax. +1 908 949 7722 
  17277.  
  17278.  
  17279. Program Chair:
  17280.  
  17281. L.M. Reyneri Dip. Ingegneria Informazione Universita' di Pisa
  17282. Via Diotisalvi, 2
  17283. 56126 PISA - ITALY
  17284. Tel. +39 50 568 511
  17285. Fax. +39 50 568 522
  17286. E.mail lmr@pimac2.iet.unipi.it 
  17287.  
  17288.  
  17289. Organisation:
  17290.  
  17291. COREP Segr. MICRONEURO '94
  17292. C.so Duca d. Abruzzi, 24
  17293. 10129 TORINO - ITALY
  17294. Tel. +39 11 564 5108
  17295. Fax. +39 11 564 5199 
  17296.  
  17297.  
  17298. Steering Committee:
  17299.  
  17300. K. Goser (D)
  17301. J. Herault (F)  
  17302. W. Moore (UK)
  17303. A.F. Murray (UK)
  17304. U. Ramacher (D)
  17305. M. Sami (I) 
  17306.  
  17307.  
  17308. Program Committee:
  17309.  
  17310. E. Bruun (DK)  
  17311. H.C. Card (CA)  
  17312. D. Del Corso (I)  
  17313. P. Garda (F)  
  17314. M. Jabri (AU)
  17315. S.R. Jones (UK)  
  17316. C. Jutten (F)  
  17317. H. Klar (D)  
  17318. J.A. Nossek (D)  
  17319. A. Prieto (E) 
  17320. U. Rueckert (D)  
  17321. L. Spaanenburg (NL)  
  17322. L. Tarassenko (UK)  
  17323. M. Verleysen (B)  
  17324. E. Vittoz (CH) 
  17325. J. Wawrzynek (USA)  
  17326. W. Yang (USA)
  17327.  
  17328. ****************************************************************************
  17329.  
  17330.  
  17331. Approved: parallel@hubcap.clemson.edu
  17332. Follow-up: comp.parallel
  17333. Path: bounce-back
  17334. Newsgroups: comp.parallel
  17335. Date: Wed, 27 Oct 93 12:15:29 EDT
  17336. From: rjain@faline.bellcore.com (Ravi Jain)
  17337. Subject: CfP: Parallel I/O workshop
  17338.  
  17339.  
  17340.                         CALL FOR PAPERS
  17341.  
  17342.                          Second Annual
  17343.          WORKSHOP ON I/O IN PARALLEL COMPUTER SYSTEMS 
  17344.          April 26, 1994, Hotel Regina, Cancun, Mexico
  17345.  
  17346.  
  17347. sponsored by:                   to be held in conjunction with:
  17348. IEEE Technical Committee on     International Parallel Processing 
  17349. Parallel Processing             Symposium (IPPS '94)
  17350.  
  17351.  
  17352. SYMPOSIUM:  The eighth annual International Parallel Processing
  17353. Symposium (IPPS '94) is sponsored by IEEE Computer Society and will
  17354. be held in cooperation with ACM SIGARCH.  At IPPS '94 engineers and
  17355. scientists from around the world will present the latest research
  17356. findings in all aspects of parallel and distributed processing.
  17357.  
  17358. WORKSHOP:  The workshop will be held on the first day of the
  17359. symposium (April 26, 1994).  The workshop will focus on the
  17360. increasingly important I/O bottleneck facing parallel and distributed
  17361. computer systems.  Applications affected by this bottleneck include
  17362. Grand Challenge problems as well as newer application areas such as
  17363. multimedia information systems and visualization.  Comprehensive
  17364. solutions to the parallel I/O bottleneck will include not only
  17365. innovative hardware and architectural designs, but also new
  17366. theoretical, operating systems, compilers and applications
  17367. approaches.  As for the first workshop held in 1993, this workshop
  17368. will aim to bring together researchers in order to compare and
  17369. integrate theoretical and experimental approaches and solutions.
  17370.  
  17371. Papers are invited demonstrating original unpublished research.
  17372. Topics of interest include:
  17373.  
  17374.     I/O-intensive applications
  17375.     Theory of I/O complexity         
  17376.     I/O subsystem architecture        
  17377.     Compiler support for parallel I/O     
  17378.     Operating system support for parallel I/O         
  17379.     Scheduling and resource allocation
  17380.     Concurrent and parallel file systems
  17381.     Performance modeling and evaluation
  17382.  
  17383. REGISTRATION: The workshop is free with registration for IPPS '94.
  17384. Contact: ipps94@halcyon.usc.edu
  17385.  
  17386. SUBMITTING PAPERS: All papers will be reviewed.  The first page must
  17387. include a 100-word abstract and the name, address, telephone number
  17388. and electronic mail address of the author to whom correspondence is
  17389. to be sent.  The manuscript should be at most 20 pages long
  17390. (including figures and references).  Papers will be collected into a
  17391. proceedings and distributed at the workshop.
  17392.  
  17393. Send six copies of the paper to:
  17394.     John Werth
  17395.     Dept of Computer Sciences
  17396.     Univ of Texas at Austin
  17397.     Taylor Hall Rm. 2.122
  17398.     Austin, TX 78712
  17399.     Phone: (512)-471-9583
  17400.     Fax:   (512)-471-5888
  17401.  
  17402. For enquiries by e-mail: 
  17403.     ippsio@thumper.bellcore.com    
  17404.  
  17405. SCHEDULE:
  17406.  
  17407.     COMPLETE PAPER DUE:        Jan 31, 1994
  17408.     Authors notified:          Mar 15, 1994
  17409.     Camera-ready copy due:     Apr  7, 1994
  17410.  
  17411. PROGRAM CO-CHAIRS:                        
  17412.     Ravi Jain, Bellcore                
  17413.     John Werth, U. Texas, Austin    
  17414.     J. C. Browne, U. of Texas, Austin    
  17415.                                 
  17416. PROGRAM COMMITTEE:                            
  17417.     Peter Chen, Univ. of Michigan            
  17418.     Peter Corbett, IBM Watson             
  17419.     Tom Cormen, Dartmouth            
  17420.     David DeWitt, Univ. of Wisconsin        
  17421.     Sam Fineberg, NASA Ames                
  17422.     S. Ghandeharizadeh, USC            
  17423.     Paul Messina, Caltech
  17424.     Wayne Roiger, Cray Research                
  17425.  
  17426. Approved: parallel@hubcap.clemson.edu
  17427. Follow-up: comp.parallel
  17428. Path: bounce-back
  17429. From: ehling@rice-chex.ai.mit.edu (Teresa A. Ehling)
  17430. Newsgroups: comp.parallel,comp.objects,comp.programming,comp.theory
  17431. Subject: "Research Directions in Concurrent OOP"
  17432. Organization: MIT Artificial Intelligence Lab
  17433.  
  17434. Just Released from The MIT Press --
  17435.  
  17436.  
  17437. RESEARCH DIRECTIONS IN CONCURRENT OBJECT-ORIENTED PROGRAMMING
  17438.  
  17439. edited by Gul Agha, Peter Wegner, and Aki Yonezawa
  17440.  
  17441. This collection of original research contributions provides a 
  17442. comprehensive survey of developments at the leading edge of 
  17443. concurrent object-oriented programming.  It documents progress -- 
  17444. from general concepts to specific  descriptions -- in programming 
  17445. language design, semantic tools, systems, architectures, and 
  17446. applications.  Chapters are written at a tutorial level
  17447. and are accessible to a wide audience, including researchers, 
  17448. programmers, and technical managers.
  17449.  
  17450. CONTENTS
  17451.  
  17452. I   Language Issues
  17453.  
  17454.    1   "Abstracting and Modularity Mechanisms for Concurrent Computing"
  17455.    Gul Agha, Svend Frolund, Woo Young Kim, Rajendra Panwar, 
  17456.    Anna Patterson, and Daniel Sturman
  17457.  
  17458.    2   "Tradeoffs between Reasoning and Modeling"
  17459.    Peter Wegner
  17460.  
  17461.    3   "A Survey of Logic Programming-Based Object-Oriented Languages"
  17462.    Andrew Davison
  17463.  
  17464.    4   "Analysis of Inheritance Anomaly in Object-Oriented Concurrent 
  17465.    Programming Languages"
  17466.    Satoshi Matsuoka and Akinori Yonezawa
  17467.  
  17468.    5   "Composing Active Objects"
  17469.    Oscar Nierstrasz
  17470.  
  17471.  
  17472. II   Programming Constructs
  17473.  
  17474.    6   "Supporting Modularity in Highly-Parallel Programs"
  17475.    Andrew Chien
  17476.  
  17477.    7   "Multiple Concurrency Control Policies in an Object-Oriented            
  17478.    Programming System"
  17479.    Gail Kaiser, Wenwey Hseush, Steven Popovich, and Shyhtsun Wu
  17480.  
  17481.    8   "Posts for Objects in Concurrent Logic Programs"
  17482.    Sverker Janson, Johan Montelius, and Seif Haridi
  17483.  
  17484.  
  17485. III   Language Design
  17486.  
  17487.    9   "Specifying Concurrent Languages and Systems w/delta-Grammars"
  17488.    Simon Kaplan, Joseph Loyall, and Steven Goering
  17489.  
  17490.    10  "Interaction Abstract Machines"
  17491.    Jean-Marc Andreoli, Paolo Ciancarini, and Remo Pareschi
  17492.  
  17493.    11  "CC++: A Declarative Concurrent Object-Oriented Programming
  17494.    Notation"          
  17495.    K. Mani Chandy and Carl Kesselman
  17496.  
  17497.    12  "A Logical Theory of Concurrent Objects and Its Realization in the
  17498.    Maude Language"
  17499.    Jose Meseguer
  17500.  
  17501.  
  17502. IV  Operating Systems
  17503.  
  17504.    13  "CHOICES: A Parallel Object-Oriented Operating System"
  17505.    Roy Campbell and Nayeem Islam
  17506.  
  17507.    14  "COSMOS: An Operating System for a Fine-Grain Concurrent Computer"
  17508.    Waldemar Horwat, Brian Totty, and William Dally
  17509.  
  17510.  
  17511. V   Performance Monitoring
  17512.  
  17513.    15  "Monitoring Concurrent Object-Based Programs"
  17514.    Bruce Delagi, Nakul Saraiya, and Sayuri Nishimura
  17515.  
  17516.  
  17517.  
  17518. 532 pages; hardcover $49.95 U.S.
  17519. ISBN 0-262-01139-5   AGHRH
  17520.  
  17521. The MIT Press
  17522. 55 Hayward Street
  17523. Cambridge, MA 02142
  17524.  
  17525. Vox: (800) 356-0343 -or- (617) 625-8569
  17526.  
  17527. E-mail:  mitpress-orders@mit.edu
  17528.  
  17529.  
  17530.  
  17531.  
  17532. Approved: parallel@hubcap.clemson.edu
  17533. Follow-up: comp.parallel
  17534. Path: bounce-back
  17535. Newsgroups: comp.parallel
  17536. From: anderson@cs.unc.edu (James H. Anderson)
  17537. Subject: PODC94 Call for Papers
  17538. Date: 27 Oct 1993 13:29:57 -0400
  17539. Organization: The University of North Carolina at Chapel Hill
  17540.  
  17541. IMPORTANT: To reduce expenses, we have decided to not distribute the PODC Call
  17542. for Papers and Conference Announcement via surface mail this year.  So, please
  17543. think twice before discarding this announcement.
  17544.  
  17545. ----------**********----------**********----------**********----------
  17546.  
  17547.  
  17548.                          CALL FOR PAPERS
  17549.  
  17550.    1994 ACM Symposium on Principles of Distributed Computing (PODC)
  17551.  
  17552. The Thirteenth ACM Symposium on Principles of Distributed Computing (PODC),
  17553. sponsored by ACM SIGACT and SIGOPS, will be held in Los Angeles, California,
  17554. USA, August 14-17, 1994.  Original research contributions are sought that
  17555. address fundamental issues in the theory and practice of distributed and
  17556. concurrent systems.  Specially sought are papers that illuminate connections
  17557. between practice and theory. Topics of interest include, but are not limited to:
  17558. Distributed algorithms and complexity,
  17559. Network protocols and architectures,
  17560. Multiprocessor algorithms and architectures,
  17561. Distributed operating systems --  principles and practice,
  17562. Concurrency control and synchronization,
  17563. Issues of asynchrony, synchrony, and real time,
  17564. Fault tolerance,
  17565. Cryptography and security,
  17566. Specification, semantics, and verification.
  17567.  
  17568. NEW CONFERENCE FORMAT:
  17569. This year's conference will have two tracks of presentations.  Long
  17570. presentations will follow the standard format of recent years (25 minute
  17571. talks), and will be accompanied by 10 page extended abstracts in the
  17572. proceedings. It is understood that the research reported in these abstracts is
  17573. original, and is submitted exclusively to this conference.  In addition, brief
  17574. presentations (10 minute talks) are invited as well.  These presentations will
  17575. be accompanied by a short (up to 1 page) abstract in the proceedings.
  17576. Presentations in this track are understood to reflect early research stages,
  17577. unpolished recent results, or informal expositions, and are not expected to
  17578. preclude future publication of an expanded or more polished version elsewhere.
  17579. (The popular ``rump'' session will still take place this year as well, although
  17580. it is expected to be shorter given the new track.)
  17581.  
  17582. SUBMISSIONS:
  17583. Please send 12 copies of a detailed abstract (printed double-sided if possible)
  17584. or a short abstract (1 page) with the postal address, e-mail address, and
  17585. telephone number of the contact author, to the program chair:
  17586.  
  17587. David Peleg
  17588. IBM T.J. Watson Research Center
  17589. P.O. Box 704
  17590. Yorktown Heights, New York 10598
  17591. E-mail: peleg@watson.ibm.com
  17592.  
  17593. To be considered by the committee, abstracts must be received by February 4,
  17594. 1994 (or postmarked January 28 and sent via airmail).  This is a firm deadline.
  17595. Acceptance notification will be sent by April 15, 1994.  Camera-ready versions
  17596. of accepted papers and short abstracts will be due May 10, 1994.
  17597.  
  17598. ABSTRACT FORMAT:
  17599. An extended abstract (for long presentation) must provide sufficient detail to
  17600. allow the program committee to assess the merits of the paper.  It should
  17601. include appropriate references and comparisons to related work.  It is
  17602. recommended that each submission begin with a succinct statement of the
  17603. problem, a summary of the main results, and a brief explanation of their
  17604. significance and relevance to the conference, all suitable for a non-specialist.
  17605. Technical development of the work, directed to the specialist, should follow.
  17606. Submitted abstracts should be no longer than 4,500 words (roughly 10 pages).
  17607. If the authors believe that more details are essential to substantiate the main
  17608. claims of the paper, they may include a clearly marked appendix that will be
  17609. read at the discretion of the program committee.
  17610.  
  17611. A short abstract (for brief presentation) should provide a much more concise
  17612. description (up to 1 page) of the results and their implications.
  17613.  
  17614. Authors should indicate in the cover letter for which track they wish to have
  17615. their submission considered. In general, the selection criteria for long
  17616. presentations are expected to be much more stringent than those for short ones.
  17617. At the authors' request, a (10-page) submission may be considered for both
  17618. tracks, with the understanding that it will be selected for at most one.  (Such
  17619. a request will in no way affect the chances of acceptance.)
  17620.  
  17621. PROGRAM COMMITTEE:
  17622. James Anderson (University of North Carolina),
  17623. Brian Bershad (University of Washington),
  17624. Israel Cidon (Technion and IBM T.J. Watson),
  17625. Michael J. Fischer (Yale University)
  17626. Shay Kutten (IBM T.J. Watson),
  17627. Yishai Mansour (Tel-Aviv University),
  17628. Keith Marzullo (University of California at San Diego),
  17629. David Peleg (Weizmann Institute, IBM T.J. Watson and Columbia University),
  17630. Mark Tuttle (DEC CRL),
  17631. Orli Waarts (IBM Almaden),
  17632. Jennifer Welch (Texas A&M University)
  17633.  
  17634. CONFERENCE CHAIR: James Anderson, University of North Carolina.
  17635. LOCAL ARRANGEMENTS CHAIR: Elizabeth Borowsky, UCLA.
  17636.  
  17637. ----------**********----------**********----------**********----------
  17638. Jim Anderson                            anderson@cs.unc.edu
  17639. PODC94 General Chair                    
  17640. Computer Science Dept                   919 962-1757  (voice)
  17641. University of North Carolina            919 962-1799  (fax)
  17642. Chapel Hill, NC  27599-3175
  17643.  
  17644.  
  17645. Approved: parallel@hubcap.clemson.edu
  17646. Follow-up: comp.parallel
  17647. Path: bounce-back
  17648. Newsgroups: comp.parallel
  17649. From: drk@melodian.cs.uiuc.edu (Dave Kohr)
  17650. Subject: Re: Info on PABLO wanted
  17651. Sender: news@cs.uiuc.edu
  17652. Organization: CS Dept., Univ. of Illinois at Urbana-Champaign
  17653. References: <1993Oct20.121909.28171@hubcap.clemson.edu>
  17654.  
  17655. In article <1993Oct20.121909.28171@hubcap.clemson.edu> jgarcia@cse.ucsc.edu
  17656. (Jorge Garcia) writes:
  17657. >I'm looking for any information available on the PABLO system, from
  17658. >the University of Illinois (I think).  Does anyone know where I can
  17659. >find technical articles about it, documentation, or any other source
  17660. >of information?
  17661.  
  17662. Pablo is a system for the collection, display, and analysis of parallel
  17663. program performance data, developed by Prof. Daniel A. Reed's research
  17664. group here at the Univ. of Illinois at Urbana-Champaign.  It is available
  17665. via anonymous FTP from bugle.cs.uiuc.edu, in the directory pub/Release-2.0.
  17666. Extensive documentation is available in the directory
  17667. pub/Release-2.0/Documentation.  See the README file in that directory for
  17668. an overview of the available documents.
  17669. -- 
  17670. Dave Kohr     CS Graduate Student     Univ. of Illinois at Urbana-Champaign
  17671. Work: 3244 DCL, (217)333-6561  Home: (217)359-9350  E-mail: drk@cs.uiuc.edu
  17672.                    "One either has none or not enough."
  17673.  
  17674. Approved: parallel@hubcap.clemson.edu
  17675. Follow-up: comp.parallel
  17676. Path: bounce-back
  17677. Newsgroups: comp.parallel
  17678. From: mcc@elan.princeton.edu (Martin C. Carlisle)
  17679. Subject:  Does anyone have parallel C code on pointer data structures?
  17680. Organization: Princeton University
  17681.  
  17682. I am currently doing compiler research at Princeton, and am looking
  17683. for small codes that are parallelized and use pointer data structures
  17684. (trees, lists, graphs, DAGs, etc.)  Examples might be a parallel 
  17685. implementation of shortest path, minimum spanning tree, etc.
  17686.  
  17687. Thanks for your help.
  17688. -- 
  17689. Martin C. Carlisle  (mcc@cs.Princeton.edu, martinc@pucc.BITNET)
  17690. OFFICE: Dept. of Comp. Sci. - 35 Olden St.; Princeton, NJ 08544-2087
  17691. HOME:   101 Linden Ln.; Princeton, NJ 08540
  17692. Phone: (609) 924-8753 (home), 258-1797 (office), 258-1771 (fax)
  17693.  
  17694. Approved: parallel@hubcap.clemson.edu
  17695. Follow-up: comp.parallel
  17696. Path: bounce-back
  17697. Newsgroups: comp.parallel
  17698. Date: Wed, 27 Oct 1993 16:00:58 -0700
  17699. From: peter@euclid.math.usfca.edu (Peter Pacheco)
  17700. Subject: preferred language?
  17701. Organization: University of San Francisco
  17702. Hi,
  17703.  
  17704. I'd like to know which languages are preferred by people who program
  17705. distributed memory machines.  If you could program in the language of your
  17706. choice, would you prefer to program in C with message-passing subroutines, 
  17707. C-Linda, Fortran with message-passing subroutines, . . . ? 
  17708. So that I can get a better picture of what people really want, please
  17709. also let me know what kinds of applications you're writing.
  17710.  
  17711. Please email responses.  I'll summarize to the net.
  17712.  
  17713.                     Thanks very much,
  17714.                     Peter Pacheco
  17715.                     Department of Mathematics
  17716.                     University of San Francisco
  17717.                     San Francisco, CA 94117
  17718.  
  17719. Approved: parallel@hubcap.clemson.edu
  17720. Follow-up: comp.parallel
  17721. Path: bounce-back
  17722. Newsgroups: news.groups,comp.parallel
  17723. From: thibaud@ncar.ucar.edu (Francois P. Thibaud)
  17724. Subject: Re: RFD: comp.parallel.connectmachine
  17725. Keywords: TMC, CM-5
  17726. Organization: NCAR
  17727. References:  <comp.parallel.connectmachine-RFD1@uunet.uu.net>
  17728.  
  17729. Hello Everybody !
  17730.  
  17731. I approve the creation of "comp.parallel.connectmachine".
  17732. The charter is OK as is.
  17733.  
  17734. I am in charge of the NCAR's CM-5 User's Group and I am planing on
  17735. creating (or participating in the creation) of an international TMC's
  17736. CM-2/200/5 Users group "a la" Cray User's Group.
  17737.  
  17738. Kind Regards !
  17739.  
  17740. Francois P. Thibaud
  17741.  
  17742. Organization: University of Maryland at College Park (UMCP) and
  17743.     The National Center for Atmospheric Research (NCAR)
  17744. Address: 1850, Table Mesa Drive; PO Box 3000; Boulder CO 80307-3000 USA
  17745. Phone: (+1)303-497-1707; Fax: (+1)303-497-1137; Room 505, North tower
  17746. Internet: thibaud@ncar.ucar.edu (thibaud@ra.cgd.ucar.edu)
  17747.  
  17748. Approved: parallel@hubcap.clemson.edu
  17749. Follow-up: comp.parallel
  17750. Path: bounce-back
  17751. Newsgroups: comp.parallel
  17752. From: sek@txfs1.hfb.se (Sven Eklund - HFB T/CPT)
  17753. Subject: >SuperSPARC v.8 cache organization
  17754. Organization: Falun/Borlange University College, Borlange, Sweden
  17755. Date: Thu, 28 Oct 1993 09:52:21 GMT
  17756. Apparently-To: <comp-parallel@sunet.se>
  17757. X-Charset: ASCII
  17758. X-Char-Esc: 29
  17759.  
  17760.  
  17761. Hi!
  17762.  
  17763. Could anyone out there give me some more info on
  17764. the cache organization of the SuperSPARC. I have
  17765. read the "Technical White Paper" on the microprocessor
  17766. but I'd like to know:
  17767.  
  17768.  o Does the cache use write back or write through?
  17769.  
  17770.  o How many cycles is the miss penalty?
  17771.  
  17772.  o What block size is used?
  17773.  
  17774.  o What does "pseudo" mean, more exactly,
  17775.    in "Pseudo LRU Replacement"?
  17776.  
  17777.  o How much does collision conflicts account for in the
  17778.    2% miss rate (instruction, 8% miss rate for data cache)
  17779.  
  17780.  
  17781. If you have any info, or know were I could get some answers,
  17782. please e-mail me.
  17783.  
  17784. Thanks!
  17785.  
  17786. /Sven Eklund, sek@hfb.se
  17787.  
  17788.  
  17789. Approved: parallel@hubcap.clemson.edu
  17790. Follow-up: comp.parallel
  17791. Path: bounce-back
  17792. Newsgroups: tum.soft,tum.info.soft,comp.parallel
  17793. From: pleierc@Informatik.TU-Muenchen.DE (Christoph Pleier)
  17794. Subject: Distributed programming with C on heterogeneous UNIX-networks! 
  17795. Originator: pleierc@hpeick9.informatik.tu-muenchen.de
  17796. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  17797. Organization: Technische Universitaet Muenchen, Germany
  17798.  
  17799. Distributed programming with C on heterogeneous UNIX-networks!
  17800.  
  17801. The Distributed C Development Environment is now availible by 
  17802. anonymous ftp from ftp.informatik.tu-muenchen.de in the directory
  17803. /local/lehrstuhl/eickel/Distributed_C.
  17804.  
  17805. The Distributed C Development Environment was developed at Technische
  17806. Universitaet Muenchen, Germany, at the chair of Prof. Dr. J. Eickel and is 
  17807. a collection of tools for parallel and distributed programming on single-
  17808. processor-, multiprocessor- and distributed-UNIX-systems, especially on 
  17809. heterogenous networks of UNIX computers. The environment's main purpose 
  17810. is to support and to simplify the development of distributed applications 
  17811. on UNIX networks. It consists of a compiler for a distributed programming
  17812. language, called Distributed C, a runtime library and several useful tools.
  17813.  
  17814. The programming model is based on explicit concurrency specification in the 
  17815. programming language DISTRIBUTED C, which is an extension of standard C. 
  17816. The language constructs were mainly taken from the language CONCURRENT C
  17817. developed by N. Gehani and W. D. Roome and are based on the concepts for
  17818. parallel programming implemented in the language ADA. Distributed C makes 
  17819. possible the common programming in C together with the user-friendly 
  17820. programming of process management, i. e. the specification, creation, 
  17821. synchronization, communication and termination of concurrently executed 
  17822. processes.
  17823.  
  17824. The Distributed C Development Environment supports and simplifies the dis-
  17825. tributed programming in several ways:
  17826.  
  17827.     o Development time is reduced by checking Distributed C programs for
  17828.       errors during compilation. Because of that, errors within communication
  17829.       or synchronization actions can be easier detected and avoided.
  17830.     o Programming is simplified by allowing the use of simple pointer types
  17831.       even on loosely-coupled systems. This is perhaps the most powerful
  17832.       feature of Distributed C. In this way, dynamic structures like chained
  17833.       lists or trees can be passed between processes elegantly and easily -
  17834.       even in heterogeneous networks. Only the anchor of a dynamic structure
  17835.       must be passed to another process. The runtime system automatically
  17836.       allocates heap space and copies the complete structure.
  17837.     o Developement is user-friendly by supporting the generation and 
  17838.       installation of the executable files. A special concept was developed
  17839.       for performing the generation and storage of binaries by local and
  17840.       remote compilation in heterogeneous UNIX-networks.
  17841.     o Programming difficulty is reduced by software-aided allocating processes
  17842.       at runtime. Only the system administrator needs to have special knowledge
  17843.       about the target system's hardware. The user can apply tools to map the
  17844.       processes of a Distributed C program to the hosts of a concrete target
  17845.       system.
  17846.     o Execution time is reduced by allocating processes to nodes of a network
  17847.       with a static load balancing strategy.
  17848.     o Programming is simplified because singleprocessor-, multiprocessor- and
  17849.       distributed-UNIX-systems, especially homogeneous and heterogeneous UNIX-
  17850.       networks can be programmed fully transparently in Distributed C.
  17851.  
  17852. The Distributed C Development Environment consists mainly of the tools:
  17853.  
  17854.     o Distributed C compiler (dcc): 
  17855.       compiles Distributed C to standard C.
  17856.     o Distributed C runtime library (dcc.a): 
  17857.       contains routines for process creation, synchonization, ...
  17858.     o Distributed C administration process (dcadmin):
  17859.       realizes special runtime features.
  17860.     o Distributed C installer program (dcinstall): 
  17861.       performes the generation and storage of binaries by local 
  17862.       and remote compilation in heterogeneous UNIX-networks.
  17863.  
  17864. The environment runs on the following systems:
  17865.  
  17866.     o Sun SPARCstations (SunOS), 
  17867.     o Hewlett Packard workstations (HP/UX),
  17868.     o IBM workstations (AIX), 
  17869.     o Convex supercomputers (ConvexOS),
  17870.     o IBM Workstations (AIX).
  17871.     o homogeneous and heterogeneous networks of the systems as mentioned above.
  17872.  
  17873. Moreover the implementation was designed for the use on Intel iPSC/2s. 
  17874.  
  17875. The Distributed C Development Environment source code is provided "as is" as
  17876. public domain software and distributed in the hope that it will be useful,
  17877. but without warranty of any kind.
  17878.  
  17879. Keywords: distributed programming, parallel programming, Distributed C
  17880.  
  17881. -- 
  17882.  
  17883. Christoph Pleier
  17884.  
  17885. pleierc@informatik.tu-muenchen.de
  17886.  
  17887.  
  17888. Approved: parallel@hubcap.clemson.edu
  17889. Follow-up: comp.parallel
  17890. Path: bounce-back
  17891. Newsgroups: comp.parallel
  17892. From: James.Cownie@meiko.com (James Cownie)
  17893. Subject: Re: 65 processor Meiko for sale.
  17894. References: <1993Oct21.233844.3378@jade.ab.ca>
  17895.  
  17896. > We have some Meiko equipment for sale.  The backplanes may be more valuable
  17897. > than the boards, in that it may support newer boards (can anyone comment
  17898. > on this?).
  17899.  
  17900. The M40 and M10 backplanes are also compatible with Meiko's i860 based 
  17901. (MK096 2xi860 8-32MB each) boards, or you could roll a Sparc in using 
  17902. the MK083 board.
  17903.  
  17904. -- Jim
  17905. James Cownie 
  17906. Meiko Limited            Meiko Inc.
  17907. 650 Aztec West            Reservoir Place
  17908. Bristol BS12 4SD        1601 Trapelo Road
  17909.  
  17910.  
  17911.  
  17912. Approved: parallel@hubcap.clemson.edu
  17913. Follow-up: comp.parallel
  17914. Path: bounce-back
  17915. Newsgroups: comp.parallel
  17916. From: ruehl@cscs.ch (Roland Ruehl)
  17917. Subject: ICS 94
  17918. Message-ID: <1993Oct28.122443.20292@cscs.ch>
  17919. Keywords: CFP
  17920. Sender: usenet@cscs.ch (NEWS Manager)
  17921. Nntp-Posting-Host: zermatt.cscs.ch
  17922. Reply-To: ruehl@cscs.ch
  17923. Organization: Centro Svizzero di Calcolo Scientifico (CSCS), Manno, Switzerland
  17924. Date: Thu, 28 Oct 1993 12:24:43 GMT
  17925.  
  17926.  
  17927. Could anybody please mail me the CFP for ICS 94 ?
  17928. Thank you in advance,
  17929.  
  17930.     Roland.
  17931.  
  17932. ---------------------------------------------------------------------------
  17933. Dr Roland Ruehl                         Phone (Manno):     +41 (91) 50 8232
  17934. Section of Research and Development (SeRD)
  17935. CSCS-ETH (Swiss Scientific Computing Center)      FAX:     +41 (91) 50 6711
  17936. 6928 Manno, Switzerland                        E-mail:      ruehl@cscs.ch
  17937.  
  17938.  
  17939.  
  17940.  
  17941. Approved: parallel@hubcap.clemson.edu
  17942. Follow-up: comp.parallel
  17943. Path: bounce-back
  17944. Newsgroups: comp.parallel
  17945. From: fortuna@cs.man.ac.uk (Armando Fortuna)
  17946. Subject: CFD Newsgroup - Call For Votes
  17947. Date: 28 Oct 93 14:35:44 GMT
  17948. Organization: Dept Computer Science, University of Manchester, U.K.
  17949.  
  17950.  
  17951. Hello everyone,
  17952.  
  17953.     I am interested in creating a Computational Fluid Dynamics
  17954. newsgroup. It would be called 
  17955.  
  17956. comp.fluid.dynamics
  17957.  
  17958.     Since voting is necessary in order to include it within the
  17959. "comp" hierarchy, I would ask all interested parties to please send 
  17960. your votes to this newsgroup.
  17961.  
  17962.     As soon as the minimum quorum is reached (about 150 "yes"),
  17963. the newsgroup will be created.
  17964.   
  17965.     I don't feel it is necessary for comp.fluid.dynamics to be
  17966. moderated in any way, so it won't be.
  17967.  
  17968.     The topics discussed will be anything related to computational
  17969. fluid dynamics: 
  17970.     
  17971.         * algorithms and their implementation, 
  17972.         * new developments, 
  17973.         * ... and anything interesting anyone may come up with!
  17974.  
  17975.     Everyone interested please vote!! Let's see if this time, CFD
  17976. is going to get its newsgroup.
  17977.  
  17978. Armando
  17979. fortuna@cs.man.ac.uk
  17980. --
  17981. Armando de Oliveira Fortuna                    E-mail: fortuna@cs.man.ac.uk
  17982. Dept. of Computer Science                      Tel.: +44 61 275-6132
  17983. University of Manchester                       Fax.: +44 61 275-6204
  17984. Oxford Road, Manchester
  17985. Approved: parallel@hubcap.clemson.edu
  17986. Follow-up: comp.parallel
  17987. Path: bounce-back
  17988. Newsgroups: comp.parallel
  17989. From: dmb@gorm.lanl.gov (David M. Beazley)
  17990. Subject: Re: The Future of Parallel Computing
  17991. In-Reply-To: dbader@eng.umd.edu's message of Tue, 19 Oct 1993 15:49:29 GMT
  17992. Message-ID: <DMB.93Oct28093859@gorm.lanl.gov>
  17993. Organization: Los Alamos National Laboratory, NM
  17994. References: <1993Oct14.131912.9126@hubcap.clemson.edu>
  17995.     <1993Oct19.154929.15823@hubcap.clemson.edu>
  17996.  
  17997. In article <1993Oct19.154929.15823@hubcap.clemson.edu> dbader@eng.umd.edu (David Bader) writes:
  17998.  
  17999. >      That is, is the hardware growing too fast and neglecting the
  18000. >   software and algorithmic concerns?
  18001. >
  18002. > [text deleted]
  18003. >
  18004. >      Is the same true for the emergence of parallel computing?  In my
  18005. >   opinion, no.  We have not ground out a "standard" representation for
  18006. >   the model of parallel computing.  We have not put enough effort into
  18007. >   the theory of parallel algorithmics.  Throwing faster hardware at us
  18008. >   will not solve the problem. Even if the benchmark time for a given
  18009. >   application is cut in half, what happens as we try to increase the
  18010. >   problem size by a factor of K ? The compiler then must have the task
  18011. >   of decomposing the algorithm onto the underlying hardware.  It is just
  18012. >   wrong to require the programmer to have a detailed knowledge of the
  18013. >   hardware, data layout, and compiler tricks just to get anywhere near
  18014. >   "benchmarked" performance rates.
  18015.  
  18016. The ONLY way to get really high performance on any system is to have
  18017. some understanding of the underlying hardware.   One can not expect
  18018. any compiler to take some arbitrary code and make it run anywhere close
  18019. to peak performance.  Getting high performance takes alot of work and
  18020. it's up to the programmer to make it work.  Even on personal computers
  18021. (which have well-established compilers) taking the machine architecture
  18022. into consideration can improve code performance significantly.
  18023.  
  18024. >      We are now in an age when the high performance machines have
  18025. >   various data network topologies, i.e. meshes, torii, linear arrays,
  18026. >   vector processors, hypercubes, fat-trees, switching networks, etc..
  18027. >   etc.. These parallel machines might all have sexy architectures, but
  18028. >   we are headed in the wrong direction if we don't take a step back and
  18029. >   look at the future of our work.  We shouldn't have to rewrite our
  18030. >   algorithms from scratch each time our vendor sells us the latest
  18031. >   hardware with amazing benchmarks.  Benchmarks should also be
  18032. >   attainable from STANDARD compiler options.  We should NOT have to
  18033. >   streamline routines in assembly language, give data layout directives,
  18034. >   nor understand the complexities of the hardware and/or data network.
  18035.  
  18036. Again, sometimes writing routines in assembly code and mapping
  18037. your data-layout to the machine is the only way to get high 
  18038. performance. We've been working on a C code for the CM-5 and the 
  18039. only way to use the vector processors has been to write code in CDPEAC
  18040. (assembler code).  While this has taken alot of work, our
  18041. performance has jumped from 2 Gflops to rates between 25-50 Gflops
  18042. (varies on what problem is being solve of course).  We would
  18043. have never seen this improvement in performance if we had
  18044. relied on a compiler to optimize everything for us (our code is
  18045. running faster than other codes that have relied solely on the 
  18046. compiler for optimization and use of the vector units).
  18047. When running large production simulations, our efforts pay off 
  18048. because it can mean the difference between taking 30 hours of CPU time or
  18049. 300 hours (and time is money as they say).  Simply put,
  18050. if you're not willing to put in the effort to make your code
  18051. run really fast, then it never will--no matter what compiler you use.
  18052. There's just no way that a compiler is going to know the best
  18053. way to map out all possible problems on any particular machine. 
  18054. In my opinion, relying on the compiler to do everything for you
  18055. encourages lazy programming and contributes nothing to pushing
  18056. the performance limits of parallel computing hardware or software.
  18057.  
  18058. Dave Beazley
  18059. dmb@viking.lanl.gov
  18060. ------------------------------------------------------------
  18061. Opinions expressed here not necessarily those of my employer.
  18062. (or mine for that matter).
  18063.  
  18064. Approved: parallel@hubcap.clemson.edu
  18065. Follow-up: comp.parallel
  18066. Path: bounce-back
  18067. Newsgroups: comp.parallel
  18068. From: djb1@ukc.ac.uk (Dave Beckett)
  18069. Subject: [LONG] Transputer, occam and parallel computing archive: NEW FILES
  18070. Organization: Computing Lab, University of Kent at Canterbury, UK.
  18071.  
  18072. This is the new files list for the Transputer, occam and parallel
  18073. computing archive.  Please consult the accompanying article for
  18074. administrative information and the various ways to access the files.
  18075. [For experts: ftp to unix.hensa.ac.uk and look in /parallel]
  18076.  
  18077. Dave
  18078.  
  18079.  
  18080. NEW FEATURES
  18081. ~~~~~~~~~~~~
  18082.  
  18083. * FULL TEXT INDEX
  18084.  
  18085.   A nightly full text index is now being generated, of all the individual
  18086.   Index files.  This is probably the best way to find something by 'grepping'
  18087.   the file although it is very large.
  18088.  
  18089.     /parallel/index/FullIndex.ascii     223327 bytes
  18090.     /parallel/index/FullIndex.ascii.Z    74931 bytes    (compressed)
  18091.     /parallel/index/FullIndex.ascii.gz   52024 bytes    (gzipped)
  18092.  
  18093. * MIRRORED PACKAGES
  18094.  
  18095.   I am mirroring (keeping up to date) several parallel computing and
  18096.   related packages including Adaptor, SR, VCR, PARMACS, F2C, P4 etc and intend
  18097.   to add more (suggestions welcome).
  18098.  
  18099.  
  18100. NEW AREAS
  18101. ~~~~~~~~~
  18102.  
  18103. /parallel/software/linux
  18104.     LINUX related device drivers and ports of transputer software.
  18105.  
  18106. /parallel/reports/announcements
  18107. /parallel/papers/announcements
  18108.     New areas for anouncements of reports and papers.
  18109.  
  18110.  
  18111. NEW FILES since 11th October 1993 (newest first)
  18112. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  18113.  
  18114. /parallel/software/miami/mpsim.tar.Z
  18115.     Small multiprocessor simulator package written by Felix Quevedo
  18116.     <fqs@mthvax.cs.miami.edu> at the University of Miami. ASCII and PS
  18117.     versions of the documentation are provided as well as troff source.
  18118.     Works on Sun3-SunOS3.5, Sun4-SunOS4.0.3, VAX-Ultrix3.0 and MAC-A/UX1.1.
  18119.  
  18120. /parallel/conferences/int-dev-par-comp
  18121.     Details of two-day Symposium on International Developments in
  18122.      Parallel Computing being held from 9th-10th November 1993 at
  18123.     the University of Liverpool organised by ACT-UETP and the Institute
  18124.     of Advanced Scientific Computation (IASC), University of Liverpool.
  18125.  
  18126. /parallel/software/washington-seattle/chaos
  18127.     Chaos Simulator Package - a compiled routing network simulator written
  18128.     by the Chaos router team at the University of Washington, Seattle, USA.
  18129.  
  18130. /parallel/reports/announcements/genetic-alg-robotics
  18131.     Announcement of Technical Report available for FTP about
  18132.     Genetic Algorithms for robotics (in French).
  18133.     "Algorithmes genetiques paralleles pour la planification de
  18134.     trajectoires de robots en environnement dynamique" by
  18135.     Thierry Chatroux of Institut Imag, Grenoble, France.
  18136.  
  18137. /parallel/conferences/can-fr-conf-par-comp
  18138.     Final announcement and call for papers for the Canada-France
  18139.     conference on Parallel Computing being held from 18th-20th May 1994
  18140.     at Concordia University, Montreal, Canada the week before the 1994 ACM
  18141.     Symposium on Theory of Computing.  Deadlines: 31st October 1993:
  18142.     Submission of papers; 31st January 1994: Acceptance; 28th February
  18143.     1994: Camera-ready copy.
  18144.  
  18145. /parallel/software/rice/netsim/README
  18146.     Details and copyright message for the package: READ THIS FIRST.
  18147.     (No commercial use of software allowed)
  18148.  
  18149. /parallel/software/rice/netsim/sim.tar.Z
  18150.     A family of discrete-event simulators based on the C programming
  18151.     language by J. Robert Jump <jrj@rice.edu> of Rice University, Houston,
  18152.     Texas, USA.  Contains YACSIM - A process-oriented discrete-event
  18153.     simulator,  NETSIM - A general-purpose interconnection network
  18154.     simulator and DBSIM - A debugging utility for use with any of the
  18155.     simulators.  Archive contains source code and documentation and papers
  18156.     in PostScript.
  18157.  
  18158. /parallel/reports/misc/twelve-ways-to-fool-masses.tex
  18159. /parallel/reports/misc/twelve-ways-to-fool-masses.ps.Z
  18160.     Report: "Twelve Ways to Fool the Masses When Giving Performance
  18161.     Results on Parallel Computers" by David Bailey posted to comp.parallel
  18162.     by Andrew Stratton <stratton@dcs.warwick.ac.uk> in LaTeX form
  18163.     (twelve-ways-to-fool-masses.tex) and compressed Postscript
  18164.     (twelve-ways-to-fool-masses.ps.Z).
  18165.  
  18166. /parallel/bibliographies/parallelism-biblos-FAQ
  18167.     Frequently Asked Questions (FAQ) about the bibliography on
  18168.     parallelism maintained by Eugene N. Miya <eugene@nas.nasa.gov>
  18169.     for the last ten+ years.  Written by the maintainer.
  18170.  
  18171. /parallel/faqs/conferences/opopac-workshop-programme
  18172.     More programme details for the International Workshop On Principles Of
  18173.     PArallel Computing (OPOPAC) / "Journees internationales sur des
  18174.     problemes fondamentaux de l'informatique parallele et distribuee"
  18175.     being held from 23rd-26th November 1993 in Lacanau, France.  [See
  18176.     also /parallel/faqs/conferences/opopac-workshop].
  18177.  
  18178. /parallel/faqs/parallel-Fourier-transforms
  18179.     Summary of some citations for parallel Fourier transform
  18180.     papers/algorithms by Mike Gross <gross@noether.ucsc.edu>.
  18181.  
  18182. /parallel/faqs/message-passing-simulators
  18183.     Summary of responses to a query about freely available message
  18184.     passing software simulators by David C Blight
  18185.     <blight@eeserv.ee.umanitoba.ca> and details of how to obtain it.
  18186.  
  18187. /parallel/conferences/esa94
  18188.     Call for papers for 2nd Annual European Symposium On Algorithms
  18189.     (ESA'94) being held from 26th-28th September 1994 near Utrecht,
  18190.     The Netherlands.  Deadlines:  Extended Abstract/Full draft paper:
  18191.     25th March 1994; Acceptance: 20th May 1994; Camera-ready copy:
  18192.     20th June 1994.
  18193.  
  18194. /parallel/conferences/rsp94
  18195.     Call for papers for 5th IEEE International Workshop on Rapid
  18196.     System Prototyping (RSP 94) being held from 21st-23rd June 1994
  18197.     at Grand Hotel de Paris at Villard de Lans, Grenoble, France.
  18198.     Conferences is in English.  Deadlines:  Papers: 10th January 1994;
  18199.     Acceptance: 10th February 1994; Camera-ready copy: 24th Marh 1994.
  18200.  
  18201. /parallel/conferences/jisc-ntsc-cluster-workshop
  18202.     Details of the JISC/NTSC Workshop on Cluster Computing being held
  18203.     on Tuesday 2nd November 1993 at the University of Edinburgh.
  18204.  
  18205. /parallel/faqs/industrial-par-tools
  18206.     Summary of responses about a query on tools for industrial
  18207.     ((non-research) parallel programming by Richard Schooler
  18208.     <schooler@apollo.hp.com>
  18209.  
  18210. /parallel/software/linux/assembler/assembler.announcement
  18211.     Announcement of new version of assembler and servers written by
  18212.     Michael Haardt <u31b3hs@cip-s02.informatik.rwth-aachen.de> for
  18213.     Linux 0.99.13
  18214.  
  18215. /parallel/software/linux/assembler/asld.tz
  18216.     New version of assembler and linker (gzipped tar file)
  18217.  
  18218. /parallel/software/linux/assembler/b004.tz
  18219.     Patches for Christoph Niemann's link device driver for Linux 0.99.13.
  18220.     For documentation, see his original release. (gzipped tar file)
  18221.  
  18222. /parallel/software/linux/assembler/server.tz
  18223.     Iserver, AFserver and cserver (gzipped tar file)
  18224.  
  18225. /parallel/software/linux/assembler/tdis.tz
  18226.     Disassembler (gzipped tar file)
  18227.  
  18228. /parallel/software/ipsc/ipscs-to-pvm3.1
  18229.     Announcement of v0.1 of Intel iPSC to PVM3.1 library written by
  18230.     J. Sunny Egbo <sunny@ma.cs.wm.edu> et al
  18231.  
  18232. /parallel/software/ipsc/i2pvm0.1.tar.Z
  18233.     Version 0.1 of the Intel-iPSC to PVM Library: A set of routines to
  18234.     allow Intel iPSC programs to run under a Parallel Virtual Machine.
  18235.     CAVEATS:
  18236.     1. This version (0.1) only works for PVM3.1 and supports most of the
  18237.       Intel iPSC node calls, and a few host programs.
  18238.     2. We are working on the next release which includes most of the host
  18239.       library calls, host programs, and will run under PVM3.2.
  18240.  
  18241. /parallel/bibliographies/par-functional
  18242.     Directory containing an annotated bibliography on parallel functional
  18243.     programming (including BibTeX sources) listing more than 350
  18244.     publications mostly including their full abstracts by
  18245.     Wolfgang Schreiner <schreine@risc.uni-linz.ac.at>
  18246.  
  18247. /parallel/conferences/sms94
  18248.     Call for papers for 2nd International Conference on Software
  18249.     for Multiprocessors and Supercomputers- Theory, Practice, Experience
  18250.     (SMS TPE'94) being held in early September 1994 in Mosco, Russia.
  18251.     Organising institutions are the Computing Centre of the Russian
  18252.     Academy of Sciences and the Institute for the Problems of Cybernetics
  18253.     of the Russian Academy of Sciences.  Deadlines: Abstracts: 31st
  18254.     December 1993; Acceptance: 1st March 1994; Camera-ready copies: 1st
  18255.     May 1994.
  18256.  
  18257. /parallel/documents/misc/optical-nets-in-multiprocessors.announce
  18258.     Announcement of PhD thesis by James Olsen <olsen@HING.LCS.MIT.EDU>:
  18259.     "Control and Reliability of Optical Networks in Multiprocessors"
  18260.     available in both Postscript and LaTeX formats via anonymous ftp.
  18261.  
  18262. /parallel/conferences/shpcc94
  18263.     Update to call for papers for 1994 Scalable High Performance Computing
  18264.     Conference (SHPCC94) to beld from 23rd-25th May 1994 in
  18265.     Knoxville, Tennessee, USA.  Deadlines:    PAPERS: Extended Abstracts:
  18266.     1st November 1993; Acceptance: 14th January 1994; Camera-ready copies:
  18267.     14th February 1994. POSTERS: Short Abstracts: 1st November 1993;
  18268.     Acceptance: 14th January 1994;    TUTORIALS: Proposals: 1st November
  18269.     1993; Acceptance: 14th January 1994.
  18270.  
  18271. /parallel/conferences/ieee-workshop-visualisation-machine-vision
  18272.     Call for papers for the IEEE Workshop on Visualization and Machine
  18273.     Vision being held on the 24th June 1994 at The Westin Hotel, Seattle,
  18274.     Washington, USA (A day after CVPR at the same site.  So researchers
  18275.     can stay an extra day and attend the workshop) Sponsored by IEEE
  18276.     Computer Society: Pattern Analysis and Machine Intelligence Technical
  18277.     Committee and Computer Graphics Technical Committee.  Deadline:
  18278.     13th December 1993.
  18279.  
  18280. /parallel/conferences/PEPS-programme
  18281.     Programme and Registration Details for the Workshop on the Performance
  18282.     Evaluation and Assessment of Parallel Systems (PEPS) sponsored by the
  18283.     EC ESPRIT 6942 programme, the BCS and the TTCP XTP3 Technical Panel on
  18284.     Computer Architectures and organised by the PEPS Consortium.  Workshop
  18285.     being held from 29th-30th November 1993 at University of Warwick,
  18286.     Coventry, UK.
  18287.  
  18288. /parallel/reports/announcements/GRAPE-report-kahaner
  18289.     Announcement of reports by Dr. David Kahaner <kahaner@cs.titech.ac.jp>
  18290.     on the GRAPE (GRAvity PipE) computer, developed at the University of
  18291.     Tokyo, for simulation of N-body systems.  The newest version will have
  18292.     TFLOPs performance, using 2000 600MFLOP chips. Posted by
  18293.     Rick Schlichting <rick@cs.arizona.edu>
  18294.  
  18295. /parallel/journals/ppl
  18296.     Added Parallel Processing Letters details, call for papers
  18297.     and contents of some of the issues.
  18298.  
  18299. /parallel/courses/parasoft-par-prog-course
  18300.     Introductory course on the theory and practice of distributed and
  18301.     parallel computing held by ParaSoft Corporation from 10th-12th
  18302.     December 1993 at Florida State University, Tallahassee, Florida, USA
  18303.     (At the end of Cluster Workshop)
  18304.  
  18305. /parallel/user-groups/ppc/PPC-October
  18306.     Announcement of the October PPC Meeting held on October 11th.
  18307.     [Posted too late to arrive before the meeting date]
  18308.  
  18309. /parallel/books/morgan-kaufmann/parallel-processing-from-applications-to-systems
  18310.     Announcement of book: "Parallel Processing from Applications to
  18311.     Systems" by Dan I. Moldovan, University of Southern California
  18312.     published by Morgan Kaufmann and details of contents and costs.
  18313.  
  18314. /parallel/conferences/wotug17
  18315.     Call for papers for the 17th World occam and Transputer User Group
  18316.     (WoTUG) Technical Meeting being held from 11th-13th April 1994 at
  18317.     the University of Bristol, UK.    Deadlines:  Extended abstracts:
  18318.     1st November 1993;  Notification: Mid December 1993;  Camera read
  18319.     copy: 10th January 1994.
  18320.  
  18321. /parallel/conferences/EURO-PAR-site-bids
  18322.     Call for conference site bids for the new series of European
  18323.     Conferences called EURO-PAR (merge of CONPAR/VAPP and PARLE).
  18324.     Deadline for bids is Friday 5th November.
  18325.  
  18326.  
  18327. OTHER HIGHLIGHTS
  18328. ~~~~~~~~~~~~~~~~
  18329.  
  18330.   * occam 3 REFERENCE MANUAL (draft)
  18331.     /parallel/documents/occam/manual3.ps.Z
  18332.  
  18333.       By Geoff Barrett of INMOS - freely distributable but copyrighted by
  18334.       INMOS and is a full 203 page book in the same style of the Prentice
  18335.       Hall occam 2 reference manual.  Thanks a lot to Geoff and INMOS for
  18336.       releasing this.
  18337.  
  18338.   * TRANSPUTER COMMUNICATIONS (WoTUG JOURNAL) FILES
  18339.     /parallel/journals/Wiley/trcom/example1.tex
  18340.     /parallel/journals/Wiley/trcom/example2.tex
  18341.     /parallel/journals/Wiley/trcom/trcom.bst
  18342.     /parallel/journals/Wiley/trcom/trcom01.sty
  18343.     /parallel/journals/Wiley/trcom/trcom02.sty
  18344.     /parallel/journals/Wiley/trcom/trcom02a.sty
  18345.     /parallel/journals/Wiley/trcom/transputer-communications.cfp
  18346.     /parallel/journals/Wiley/trcom/Index
  18347.     /parallel/journals/Wiley/trcom/epsfig.sty
  18348.  
  18349.       LaTeX (.sty) and BibTeX (.bst) style files and examples of use for
  18350.       the forthcoming Wiley journal - Transputer Communications,
  18351.       organised by the World occam and Transputer User Group (WoTUG).
  18352.       See transputer-communications.cfp for details on how to submit a paper.
  18353.  
  18354.   * FOLDING EDITORS: origami, folding micro emacs
  18355.     /parallel/software/folding-editors/fue-original.tar.Z
  18356.     /parallel/software/folding-editors/fue-ukc.tar.Z
  18357.     /parallel/software/folding-editors/origami.zip
  18358.     /parallel/software/folding-editors/origami.tar.Z
  18359.  
  18360.       Two folding editors - origami and folding micro-emacs traditionally
  18361.       used for occam programming environments due to the indenting rules.
  18362.       Origami is an updated version of the folding editor distribution
  18363.       as improved by Johan Sunter of Twente, Netherlands.  fue* are the
  18364.       original and UKC improved versions of folding micro-emacs.
  18365.  
  18366.   * T9000 SYSTEMS WORKSHOP REPORTS
  18367.     /parallel/reports/wotug/T9000-systems-workshop/*
  18368.  
  18369.       The reports from the T9000 Systems Workshop held at the
  18370.       University of Kent at Canterbury in October 1992.  It
  18371.       contains ASCII versions of the slides given then with the
  18372.       permission of the speakers from INMOS.  Thanks to Peter
  18373.       Thompson and Roger Shepherd for this.
  18374.       Subjects explained include the communications architecture
  18375.       and low-level communications, the processor pipeline and
  18376.       grouper, the memory system and how errors are handled.
  18377.  
  18378.   * THE PETER WELCH PAPERS
  18379.     /parallel/papers/ukc/peter-welch
  18380.       Eleven papers by Professor Peter Welch and others of the
  18381.       Parallel Processing Group at the Computing Laboratory,
  18382.       University of Kent at Canterbury, England related to occam,
  18383.       the Transputer and other things.  Peter is Chairman of the
  18384.       World occam and Transputer User Group (WoTUG)
  18385.  
  18386.   * ISERVERS
  18387.     /parallel/software/inmos/iservers
  18388.       Many versions of the iserver- the normal version, one for
  18389.       Windows (WIserver), one for etherneted PCs (PCServer) and one
  18390.       for Meiko hardware.
  18391.  
  18392.   * MIRROR OF PARLIB
  18393.     /parallel/parlib
  18394.       Mirror of the PARLIB archive maintained by Steve Stevenson,
  18395.       the moderator of the USENET group comp.parallel.
  18396.  
  18397.   * UKC REPORTS
  18398.     /pub/misc/ukc.reports
  18399.       The internal reports of the University of Kent at Canterbury
  18400.       Computing Laboratory.  Many of these contain parallel computing
  18401.       research.
  18402.  
  18403.   * NETLIB FILES
  18404.     /netlib/p4
  18405.     /netlib/pvm
  18406.     /netlib/pvm3
  18407.     /netlib/picl
  18408.     /netlib/paragraph
  18409.     /netlib/maspar
  18410.       As part of the general unix.hensa.ac.uk archive, there is a full
  18411.       mirror of the netlib files for the above packages (and the others
  18412.       too).
  18413.  
  18414. Approved: parallel@hubcap.clemson.edu
  18415. Follow-up: comp.parallel
  18416. Path: bounce-back
  18417. Newsgroups: comp.parallel
  18418. From: djb1@ukc.ac.uk (Dave Beckett)
  18419. Subject: [LONG] Transputer, occam and parallel computing archive: ADMIN
  18420. Organization: Computing Lab, University of Kent at Canterbury, UK.
  18421. Summary: Loads more files.  See NEW FILES archive for details.
  18422. Keywords: transputer, occam, parallel, archive
  18423.  
  18424. This is the administrative information article for the Transputer,
  18425. occam and parallel computing archive.  Please consult the accompanying
  18426. article for details of the new files and areas.
  18427.  
  18428. In the last two and a half weeks I've added another 8 megabytes of
  18429. files to the archive at unix.hensa.ac.uk in /parallel.  It currently
  18430. contains over 57 Mbytes of freely distributable software and documents,
  18431. in the transputer, occam and parallel computing subject area.
  18432.  
  18433.  
  18434. STATISTICS
  18435. ~~~~~~~~~~
  18436. >2940 users accessed archive (560 more than last time)
  18437. >1400 Mbytes transfered (200MB more)
  18438.   since the archive was started in early May.
  18439.  
  18440. Top 10 files accessed, excluding Index files
  18441.   679 /parallel/README
  18442.   340 /parallel/pictures/T9000-schematic.ps.Z
  18443.   316 /parallel/reports/misc/soft-env-net-report.ps.Z
  18444.   264 /parallel/documents/inmos/occam/manual3.ps.Z
  18445.   201 /parallel/Changes
  18446.   162 /parallel/software/folding-editors/origami.tar.Z
  18447.   161 /parallel/reports/ukc/T9000-systems-workshop/all-docs.tar.Z
  18448.   142 /parallel/index/ls-lR.Z
  18449.   129 /parallel/books/prentice-hall
  18450.   109 /parallel/books/occam-books
  18451.  
  18452. It's gratifying to see the top level README has such interest!
  18453.  
  18454.  
  18455. WHERE IS IT?
  18456. ~~~~~~~~~~~~
  18457. At the HENSA (Higher Education National Software Archive) UNIX
  18458. archive.  The HENSA/UNIX archive is accessible via an interactive
  18459. browsing facility, called fbr as well as email, DARPA ftp, gopher and
  18460. NI-FTP (Blue Book) services.  For details, see below.
  18461.  
  18462.  
  18463. HOW DO I FIND WHAT I WANT?
  18464. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  18465. The files are all located in /parallel and each directory contains a
  18466. short Index file of the contents.
  18467.  
  18468. If you want to check what has changed in between these postings, look
  18469. at the /parallel/Changes file which contains the new files added.
  18470.  
  18471. There is also a full text index available of all the files in
  18472. /parallel/index/FullIndex.ascii but be warned - it is very large (over 200K).
  18473. Compressed and gzipped versions are in the same directory.
  18474.  
  18475. For those UNIX dweebs, there are output files of ls-lR in
  18476. /parallel/index/ls-lR along with compressed and gzipped versions too.
  18477.  
  18478.  
  18479. HOW DO I CONTACT IT?
  18480. ~~~~~~~~~~~~~~~~~~~~
  18481.  
  18482. There are several ways to access the files which are described below
  18483. - log in to the archive to browse files and retrieve them by email;
  18484. transfer files by DARPA FTP over JIPS or use Blue Book NI-FTP.
  18485.  
  18486.  
  18487. Logging in:
  18488. ~~~~~~~~~~~
  18489. JANET X.25 network:
  18490.     call uk.ac.hensa.unix (or 000049200900 if you do not have NRS)
  18491.  
  18492. JIPS: 
  18493.     telnet unix.hensa.ac.uk    (or 129.12.21.7)
  18494.  
  18495. Once connected, use the login name 'archive' and your email address to
  18496. enter. You will then be placed inside the fbr restricted shell. Use the
  18497. help command for up to date details of what commands are available.
  18498.  
  18499.  
  18500. Transferring files by FTP
  18501. ~~~~~~~~~~~~~~~~~~~~~~~~
  18502. DARPA ftp from JIPS/the internet:
  18503.     site: unix.hensa.ac.uk (or 129.12.21.7)
  18504.         login: anonymous
  18505.         password: <your email address>
  18506.                     
  18507. Use the 'get' command to transfer a file from the remote machine to
  18508. the local one.  When transferring a binary file it is important to
  18509. give the command 'binary' before initiating the transfer.  For more
  18510. details of the 'ftp' command, see the manual page by typing 'man ftp'.
  18511.  
  18512.  
  18513. The NI-FTP (Blue Book) request over JANET
  18514.         <ARCHIVE>path-of-file  from uk.ac.hensa.unix
  18515.         Username: guest
  18516.         Password: <your email address>
  18517.                     
  18518. The program to do an NI-FTP transfer varies from site to site but is
  18519. usually called hhcp or fcp.  Ask your local experts for information.
  18520.  
  18521.  
  18522. Transferring files by Email
  18523. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  18524. To obtain a specific file email a message to
  18525.       archive@unix.hensa.ac.uk
  18526. containing the single line
  18527.       send path-of-file
  18528. or 'help' for more information.
  18529.  
  18530.  
  18531. Browsing and transferring by gopher
  18532. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  18533. >From the Root Minnesota Gopher gopher, select the following entries:
  18534.  
  18535.     8.  Other Gopher and Information Servers/
  18536.  
  18537.     5.  Europe/
  18538.  
  18539.     37. United Kingdom/
  18540.  
  18541.     14. HENSA unix (National software archive, University of Kent), (UK)/
  18542.  
  18543.     3.  The UNIX HENSA Archive at the University of Kent at Canterbury/
  18544.  
  18545.     9.  PARALLEL - Parallel Computing /
  18546.  
  18547. and browse the archive as normal.  [The numbers are very likely to change]
  18548. The short descriptions are abbreviated to fit on an 80 column display
  18549. but the long ones can always be found under 'General Information.' (the
  18550. Index files).  Updates to the gopher tree follow a little behind the
  18551. regular updates.
  18552.  
  18553.  
  18554. COMING SOON
  18555. ~~~~~~~~~~~
  18556. A better formatted bibliograpy of the IOS press (WoTUG, NATUG et al) books.
  18557. A HUGE bibliography of occam papers, PhD theses and publications - currently
  18558.   about 2000 entries.
  18559. The rest of the INMOS archive server files.
  18560. WoTUG related papers and information.
  18561. NATUG information and membership form.
  18562. A transputer book.
  18563. A freely distributable occam compiler for workstations.
  18564. A couple of free occam compiler for transputers.
  18565.  
  18566.  
  18567. DONATIONS
  18568. ~~~~~~~~~
  18569. Donations are very welcome.  We do not allow uploading of files directly
  18570. but if you have something you want to donate, please contact me.
  18571.  
  18572.  
  18573. Dave Beckett
  18574.  
  18575. Computing Laboratory, University of Kent at Canterbury, UK, CT2 7NF
  18576. Tel: [+44] (0)227 764000 x7684  Fax: [+44] (0)227 762811  Email: djb1@ukc.ac.uk
  18577.  
  18578. Approved: parallel@hubcap.clemson.edu
  18579. Newsgroups: comp.parallel
  18580. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  18581. Subject: Voting on CFV's on newsgroup formation
  18582.  
  18583. To those interested in voting on new newsgroups. You must send your
  18584. votes to the appropriate place. Posted votes won't count.
  18585.  
  18586. =========================== MODERATOR ==============================
  18587. Steve Stevenson                            fpst@hubcap.clemson.edu
  18588. Administrative address                     steve@hubcap.clemson.edu
  18589. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  18590. Wanted: Sterbetz, P. Floating Point Computation
  18591.  
  18592. Approved: parallel@hubcap.clemson.edu
  18593. Follow-up: comp.parallel
  18594. Path: bounce-back
  18595. Newsgroups: comp.parallel
  18596. From: pan@udcps3.cps.udayton.edu (Yi Pan)
  18597. Subject: VLSI area of 3-D Mesh
  18598. Organization: The University of Dayton Computer Science Dept., Dayton, OH
  18599. Date: Thu, 28 Oct 1993 18:20:24 GMT
  18600.  
  18601.  
  18602. Hi,
  18603.  
  18604. COuld anyone give me some pointer on how to derive the VLSI area
  18605. of 3-D mesh? If you know any references in this area, please let me
  18606. know.
  18607.  
  18608. Many thanks,
  18609.  
  18610. Yi
  18611.  
  18612.  
  18613. Approved: parallel@hubcap.clemson.edu
  18614. Follow-up: comp.parallel
  18615. Path: bounce-back
  18616. From: blj@crhc.uiuc.edu (Bob Janssens)
  18617. Newsgroups: comp.parallel,comp.sys.misc,comp.os.misc
  18618. Subject: CM5 emulation under SunOs?
  18619. Date: 28 Oct 1993 15:52:55 -0500
  18620. Organization: Center for Reliable and High-Performance Computing, University of Illinois at Urbana-Champaign
  18621.  
  18622. Since Thinking Machines' CM5 runs a modified version of SunOs it seems to
  18623. me like it should be relatively simple to write a CM5 emulator that runs on
  18624. my SPARCstation under SunOs.  Does such an emulator exist and is it
  18625. available?
  18626.  
  18627. Thanks,
  18628. Bob Janssens        janssens@uiuc.edu
  18629.  
  18630. Approved: parallel@hubcap.clemson.edu
  18631. Follow-up: comp.parallel
  18632. Path: bounce-back
  18633. Newsgroups: comp.parallel,comp.sys.super
  18634. From: jet@nas.nasa.gov (J. Eric Townsend)
  18635. Subject: mailing list info on CM-5, iPSC/860
  18636. Sender: news@nas.nasa.gov (News Administrator)
  18637. Nntp-Posting-Host: boxer.nas.nasa.gov
  18638. Organization: NAS/NASA-Ames Research Center
  18639. Date: Thu, 28 Oct 1993 23:19:05 GMT
  18640. Apparently-To: comp-parallel@ames.arc.nasa.gov
  18641.  
  18642.  
  18643. J. Eric Townsend (jet@nas.nasa.gov)
  18644. last updated: 18 Oct 1993
  18645.  
  18646. This file is posted to USENET automatically on the 1st and 15th of
  18647. each month.
  18648.  
  18649. It is mailed to the respective lists to remind users how to
  18650. unsubscribe and set options.
  18651.  
  18652. INTRODUCTION
  18653. ------------
  18654.  
  18655. Several mailing lists exist at NAS for the discussion of using and
  18656. administrating Thinking Machines CM-5  and Intel iPSC/860 parallel
  18657. supercomputers.
  18658.  
  18659. These mailing lists are open to all persons interested in the systems.
  18660.  
  18661. The lists are:
  18662.  
  18663. LIST-NAME        DESCRIPTION
  18664. cm5-users    --  discussion of using the TMC CM-5
  18665. cm5-managers --       "     "  administrating the TMC CM-5
  18666. ipsc-users   --       "     "  using the Intel iPSC/860
  18667. ipsc-admin   --       "     "  administrating the iPSC/860
  18668.  
  18669. The ipsc-* lists at cornell are going away, the lists here will
  18670. replace them. (ISUG members will be receiving information on this in
  18671. the near future.)  The cm5-users list is intended to complement the
  18672. lbolt list at MSC.
  18673.  
  18674. SUBSCRIBING/UNSUBSCRIBING
  18675. -------------------------
  18676.  
  18677. All of the above lists are run with the listserv package.  In the
  18678. examples below, substitute the name of the list from the above table
  18679. for the text "LIST-NAME".
  18680.  
  18681. To subscribe to any of the lists, send email to
  18682. listserv@boxer.nas.nasa.gov with a *BODY* of
  18683.  
  18684. subscribe LIST-NAME your_full_name
  18685.  
  18686. Please note:
  18687.  - you are subscribed with the address that you sent the email from.
  18688.    You cannot subscribe an address other than your own.  This is
  18689.    considered a security feature, but I haven't gotten around to taking
  18690.    it out.
  18691.  - your subscription will be handled by software, so any other text
  18692.    you send will be ignored
  18693.  
  18694. Unsubscribing
  18695.  
  18696. It is important to understand that you can only unsubscribe from the
  18697. address you subscribed from.  If that is impossible, please contact
  18698. jet@nas.nasa.gov to be unsubscribed by hand.  ONLY DO THIS IF
  18699. FOLLOWING THE INSTRUCTIONS DOES NOT PRODUCE THE DESIRED RESULTS!  I
  18700. have better things to do than manually do things that can be
  18701. automated.
  18702.  
  18703. To unsubscribe from any of the mailing lists, send email to
  18704. listserv@boxer.nas.nasa.gov with a body of
  18705.  
  18706. unsubscribe LIST-NAME
  18707.  
  18708. OPTIONS
  18709. -------
  18710. If you wish to receive a list in digest form, send a message
  18711. to listserv@boxer.nas.nasa.gov with a body of
  18712.  
  18713. set LIST-NAME mail digest
  18714.  
  18715. OBTAINING ARCHIVES
  18716. ------------------
  18717.  
  18718. There are currently no publicly available archives.  As time goes on,
  18719. archives of the lists will be made available.  Watch this space.
  18720. -- 
  18721. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  18722. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  18723. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  18724. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  18725.  
  18726. Approved: parallel@hubcap.clemson.edu
  18727. Follow-up: comp.parallel
  18728. Path: bounce-back
  18729. Newsgroups: comp.parallel
  18730. From: "Bruce Shriver" <p00536@psilink.com>
  18731. Subject: Call for Proposals - HICSS-28
  18732. Date: Thu, 28 Oct 93 19:52:16 -0500
  18733. Organization: PSI Public Usenet Link
  18734.  
  18735.                       Call For Minitrack Proposals
  18736.    Parallel and Distributed Computing: Theory, Systems, and Applications
  18737.                The Software Technology Track of HICSS-28
  18738.          28th Hawaii International Conference on System Sciences
  18739.                     MAUI, HAWAII - JANUARY 3-6, 1995
  18740.                  ======================================
  18741.  
  18742. You are invited to submit a proposal for a minitrack for HICSS-28. The
  18743. HICSS series of conferences has become a unique and respected forum in
  18744. computer and information systems and technology for the exchange of ideas
  18745. among the researcher and development communities in North America, the Asian
  18746. and Pacific Basin Nations, and Europe.  HICSS-28 will have Tracks in Computer
  18747. Architecture, Software Technology, Biotechnology, and Information Systems.
  18748. A Track consists of three full days of technical sessions, coupled with a
  18749. set of advanced seminars and tutorials. A minitrack is either a half day or
  18750. a full day of technical sessions. All sessions are conducted in a workshop-
  18751. like setting and participants often participate in several different tracks.
  18752. HICSS is sponsored by the University of Hawaii in cooperation with the IEEE 
  18753. Computer Society and the ACM.
  18754.  
  18755. This particular solicitation is for the Software Technology Track which will
  18756. focus on "Parallel and Distributed Computing: Theory, Systems, and 
  18757. Applications." The topics include:
  18758.  
  18759. - - Application portability across diverse architectures
  18760. - - Compilers and optimizations
  18761. - - Debugging and performance analysis environments
  18762. - - Design languages and methods for distributed/parallel systems
  18763. - - Development environments
  18764. - - Distributed/parallel algorithms (design and analysis)
  18765. - - Distributed/parallel operating systems (including multiprocessor design
  18766.     issues, cache  issues, communications protocols, task allocation and
  18767.     scheduling, load balancing, distributed microkernel systems)
  18768. - - Fault tolerance in distributed/parallel systems
  18769. - - Migration to distributed/parallel systems
  18770. - - New and innovative paradigms, languages, and language constructs
  18771. - - Real-Time (hard deadline) systems
  18772. - - Scalability issues
  18773. - - Semi-automatic and automatic code generation tools
  18774. - - Software engineering of distributed/parallel systems
  18775. - - Software frameworks
  18776.  
  18777. and specific industrial and business applications such as
  18778.  
  18779. - - Very large database query, data mining and decision support systems
  18780. - - Distributed/parallel on-line transaction processing (OLTP) systems
  18781. - - Enterprise-wide distributed/parallel computing systems
  18782. - - Distributed/parallel multi-media and communications systems
  18783.  
  18784. The proposals should be on timely and important topics in the field. Your
  18785. proposal should be from five to six pages long and should:
  18786.  
  18787. 1) Define the proposed technical area, discuss the topics the minitrack will
  18788.    address, and describe how they fit into the area;
  18789.  
  18790. 2) Discuss how these topics have recently been covered in other conferences
  18791.    and publications to substantiate that HICSS is not only an appropriate
  18792.    and timely forum for the topics but also that there is a body of 
  18793.    unpublished good work to draw from; and,
  18794.  
  18795. 3) Contain a short bio-sketch and an explicit statement that your organization
  18796.    endorses your involvement and attendance and has the infrastructure to
  18797.    support that involvement as described in the attached sheets giving the
  18798.    Responsibilities of Minitrack Coordinators.
  18799.  
  18800. Interacting with authors and referees in a fair and professional manner and
  18801. employing control mechanisms that increase the overall quality of the meeting
  18802. are among the major responsibilities.
  18803.  
  18804. We highly encourage the submission of proposals by e-mail as this will 
  18805. significantly reduce the processing of the reviews.  If sent by surface mail,
  18806. send thirteen copies. Your proposal should be e-mailed to Dr. Hesham El-Rewini
  18807. (e-mail: rewini@unocss.unomaha.edu).  The deadlines are:
  18808.  
  18809.   November 26, 1993  Proposals Due
  18810.   December 31, 1993  Notification Regarding the Proposals
  18811.  
  18812. Each proposal will be evaluated by the Advisory Committee whose decision will
  18813. be based on the overall technical merit of the proposal.  Since there is only
  18814. a limited amount of space for conducting the meeting, the number of proposals
  18815. that will be approved in each track is limited. We are looking forward to
  18816. receiving a proposal from you.
  18817.  
  18818. Sincerely,
  18819.  
  18820. Track Co-Chairs
  18821. ===============
  18822. Hesham El-Rewini                        Bruce Shriver
  18823. Department of Computer Science          HICSS-28 Co-Chairman
  18824. University of Nebraska at Omaha         17 Bethea Drive
  18825. Omaha, NE 68182                         Ossining, NY 10562-1620
  18826. e-mail: rewini@unocss.unomaha.edu       e-mail: b.shriver@computer.org
  18827. Voice:  (402) 554-2852                  Voice:  (914) 762-3251
  18828. FAX:    (402) 554-2975                  FAX:    (914) 941-9181
  18829.  
  18830.  
  18831.     The HICSS-28 Software Technology Track Advisory Committee
  18832.     ---------------------------------------------------------
  18833.  
  18834. - - Dharma Agrawal, North Carolina State University, USA
  18835. - - Selim Akl, Queen's University, CANADA
  18836. - - Fran Berman, University of California at San Diego, USA
  18837. - - Karsten M. Decker, Swiss Scientific Computing Center, SWITZERLAND
  18838. - - Ahmed K. Elmagarmid, Purdue University, USA
  18839. - - Hesham El-Rewini, University of Nebraska at Omaha, USA 
  18840. - - Jeff Kramer, Imperial College, UK
  18841. - - Tore Larsen, Tromso University, NORWAY
  18842. - - Harold W. Lawson, Lawson Publishing and Consulting Inc., SWEDEN
  18843. - - Stephan Olariu, Old Dominion University, USA
  18844. - - M. Tamer Ozsu, University of Alberta, CANADA
  18845. - - David Padua, University of Illinois, USA
  18846. - - Cherri Pancake, Oregon State University, USA
  18847. - - Greg Riccardi, Florida State University, USA
  18848. - - Bruce Shriver, University of Southwestern Louisiana, USA
  18849. - - Alok Sinha, Microsoft, USA
  18850. - - Ivan Stojmenovic, University of Ottawa, CANADA
  18851.  
  18852.  
  18853.             THE RESPONSIBILITIES OF A MINITRACK COORDINATOR
  18854.             ***********************************************       
  18855.  
  18856. 1. Workshop-like Setting
  18857. ************************
  18858. A HICSS minitrack consists of two or four 90-minute sessions conducted in a
  18859. workshop-like setting.  Each session consists of three papers;  the papers
  18860. are allotted thirty minutes for presentation and questions.  The last session
  18861. should include a forum which typically is a lively, open dialogue on the
  18862. issues raised in the presentations.  You are to solicit manuscripts, have
  18863. them refereed, collaborate with the Track Coordinator in determining which
  18864. manuscripts are to be accepted, structure the sessions, introduce the
  18865. speakers in your sessions, and act as the moderator of the forum.
  18866.  
  18867. 2. Solicit Manuscripts for the Minitrack
  18868. ****************************************
  18869. After your minitrack has been approved by your Track Coordinator, you are
  18870. encouraged to distribute the Unified Call for Papers and Referees and place
  18871. it on appropriate electronic bulletin boards. This call will be prepared by
  18872. your track coordinator and cover all minitracks in the Software Technology
  18873. Track. You should solicit high-quality manuscripts from people who are known
  18874. to do excellent work in the field.  We recommend you contact potential
  18875. authors and referees to describe the overall objectives of the conference
  18876. and the minitrack and solicit their ideas, a manuscript, or a commitment to
  18877. referee. Each manuscript should be 22-25 type written, double-spaced pages
  18878. in length.  Do not accept submissions that are significantly shorter or
  18879. longer than this.  The material must contain original results and not have
  18880. been submitted elsewhere while it is being evaluated for acceptance to HICSS.
  18881. Manuscripts that have already appeared in publication are not to be con-
  18882. sidered for this conference.
  18883.  
  18884. 3. Acquire Referees Who Will Critically Review the Submitted Manuscripts
  18885. ************************************************************************
  18886. Quality refereeing is essential to ensure the technical credibility of HICSS.
  18887. Each manuscript should be stringently reviewed by a number of qualified
  18888. people who are actively working in the topics dealt with in the paper.  You
  18889. are responsible for having each manuscript submitted to you reviewed by at
  18890. least five people in addition to yourself.  The author should only be given
  18891. reviews that are technically substantive.  If you wish to submit a paper to
  18892. your own minitrack, six copies should be sent to the Track Coordinator who
  18893. will administer the refereeing process.  Do not use authors of manuscripts
  18894. as referees as this potentially places them in a conflict of interest 
  18895. situation.  HICSS does not have "invited" manuscripts; all submissions go
  18896. through a rigorous peer refereeing process.
  18897.  
  18898. 4. Accept Manuscripts for the Minitrack
  18899. ***************************************
  18900. A full-day minitrack should accept nine papers.  A half-day minitrack should
  18901. accept five.  To ensure excellent accepted papers, typically more than two
  18902. to three times the number of papers needed must actually be solicited.  Many
  18903. papers will not meet our quality standards (i.e., will not make it through
  18904. the refereeing process) and some authors may not be able to fulfill their
  18905. initial commitment and complete the paper for you.  If nine technically solid
  18906. papers do not survive the refereeing process, the full-day minitrack can be
  18907. changed to a half-day minitrack.
  18908.  
  18909. 5. Re-publication of the Manuscripts
  18910. ************************************
  18911. We encourage you to work with an Editor-in-Chief of a professional society
  18912. periodical to use your accepted papers as the basis of a special issue of
  18913. the publication.  Such an arrangement encourages quality submission and
  18914. requires good refereeing standards.  Enter into such an agreement as soon
  18915. as possible.
  18916.  
  18917. 6. Write an Introduction to the Minitrack for the Proceedings
  18918. *************************************************************
  18919. After the authors have been notified of the acceptance of the final version
  18920. of their manuscript, you are to write a three to four-page introduction to
  18921. the minitrack for inclusion in the conference proceedings.  It should not
  18922. be an overview of abstracts of the papers, but should introduce the reader
  18923. to the important problems that exist in the area.
  18924.  
  18925. 7. Select the Best Paper Candidate from the Manuscripts
  18926. *******************************************************
  18927. Within ten days after you have selected the manuscripts for inclusion in
  18928. your minitrack, your candidate best paper selections must be forwarded to
  18929. the Track Coordinator.  If you have your own manuscript accepted in your
  18930. minitrack, make your selection excluding your own work. An external committee
  18931. will make the selection for the minitrack, considering your manuscript along
  18932. with the candidates you have provided.
  18933.  
  18934. ===== END OF CALL =====
  18935.  
  18936.  
  18937.  
  18938.  
  18939.  
  18940.  
  18941. Approved: parallel@hubcap.clemson.edu
  18942. Follow-up: comp.parallel
  18943. Path: bounce-back
  18944. Newsgroups: comp.parallel,comp.lang.functional
  18945. From: cwes1@cs.aukuni.ac.nz (Clare West)
  18946. Subject: Concurrent Clean file IO concurrently
  18947. Organization: Computer Science Dept. University of Auckland
  18948. Date: Fri, 29 Oct 1993 01:49:34 GMT
  18949. Message-ID: <1993Oct29.014934.2698@cs.aukuni.ac.nz>
  18950.  
  18951. I hope these are the right places to ask about Clean.
  18952.  
  18953. I am trying to write a parallel program in Concurrent Clean 0.8.4.
  18954. This program does some processing in parallel (which works just fine)
  18955. and then does some transformations on the data and writes it out to
  18956. file. At first I used one file and even if I asked for parallel
  18957. execution it all happen on one processor. I thought "Fine only one
  18958. file is going to force sequential execution anyway, why don't I try
  18959. writing it out to several files"
  18960.  
  18961. 2 problems: a) only 4 files can be opened and files can't be closed
  18962. using the simulator, b) All file outout still happens on only one
  18963. processor.
  18964.  
  18965. At the moment I am going to have two versions of the output
  18966. procedures, one which does the transformation and outputs to file (so
  18967. I can use the results) and one which does the transformation and
  18968. throws away the data (so I can do timings). The output to file is only
  18969. occuring because the simulator has no graphics capability to output to
  18970. screen so is not an important part of the timings.
  18971.  
  18972. What I was wondering was if anyone knows if the restrictions I am
  18973. encountering are real, or if there is a way around them which I
  18974. haven't found yet.
  18975.  
  18976. Replies here or in mail would be gratefully accepted.
  18977.  
  18978. Clare West
  18979. Auckland University, Computer Science Department.
  18980.  
  18981. -- 
  18982. Official Welcomer of the RFA;  BigSis to Kristiina, Eric and Chris
  18983.  
  18984. Thinking of Maud you forget everything else.  -- hack v1.0.3
  18985. Who was that Maud person anyway?  -- nethack v3.1.0
  18986.  
  18987. Approved: parallel@hubcap.clemson.edu
  18988. Follow-up: comp.parallel
  18989. Path: bounce-back
  18990. Newsgroups: comp.parallel
  18991. From: mr824312@pllab1.csie.nctu.edu.tw ()
  18992. Subject: About Massively Parallel Optimizer
  18993. Date: 29 Oct 1993 04:56:51 GMT
  18994. Organization: String to put in the Organization Header
  18995.  
  18996. Can you tell me how to find the paper"Massively parallel searching
  18997. for better algorithms " by John L. Gustafson and Srinivas Aluru
  18998. ,Tech. Rep. IS-5088 UC-32 Ames Laboratory ,Iowa State University
  18999. Dec. 92?Please mail me !! Thanks a lot!!
  19000.  
  19001.  
  19002. --
  19003.                                         Sincerely Yours
  19004. -----------------------------------------------------------------------
  19005. Gwan-Hwan Hwang ( 6@ +a >H ) 
  19006. Department of Computer Science           ghhwang@cs.nthu.edu.tw
  19007. National Tsing Hua University            TEL: 886-35-715131-x3900
  19008. Hsinchu, Taiwan , R.O.C.                      886-35-554147(home) 
  19009. -----------------------------------------------------------------------
  19010.  
  19011. Approved: parallel@hubcap.clemson.edu
  19012. Follow-up: comp.parallel
  19013. Path: bounce-back
  19014. Newsgroups: comp.parallel
  19015. Date: Fri, 29 Oct 1993 09:06:57 +0000 (GMT)
  19016. From: hdev@cp.tn.tudelft.nl (Hans de Vreught)
  19017. Subject: Re: terminology question
  19018. Sender: news@mo6.rc.tudelft.nl (UseNet News System)
  19019. Reply-To: J.P.M.deVreught@CP.TN.TUDelft.NL ("Hans de Vreught")
  19020. Organization: Delft University of Technology (TN FI-CP)
  19021. References: <1993Oct20.121916.28264@hubcap.clemson.edu>
  19022.  <1993Oct25.154039.10974@hubcap.clemson.edu>
  19023.  
  19024. hohndel@informatik.uni-wuerzburg.de (Dirk Hohndel) writes:
  19025.  
  19026. >Greg Wilson (EXP 31 dec 93) (Greg.Wilson@cs.anu.edu.au) wrote:
  19027. >: I have always used the term "star" to refer to a topology in which every processor
  19028. >: is connected to every other; however, I am told that the term is also used for
  19029.  
  19030. >: topologies in which processors 1..N are connected to a distinguished central
  19031. >: processor 0.  Assuming that the latter definition is more common, is there a term
  19032. >: for topologies of the former type?
  19033.  
  19034. >what you mean is the Crossbars topology.
  19035.  
  19036. You can also use "complete graph" instead of "star".
  19037. -- 
  19038. Hans de Vreught                  | John von Neumann:
  19039. J.P.M.deVreught@CP.TN.TUDelft.NL | Young man, in mathematics
  19040. Delft University of Technology   | you don't understand things,
  19041. The Netherlands                  | you just get used to them.
  19042.  
  19043. Approved: parallel@hubcap.clemson.edu
  19044. Follow-up: comp.parallel
  19045. Path: bounce-back
  19046. Newsgroups: comp.parallel
  19047. From: pleierc@Informatik.TU-Muenchen.DE (Christoph Pleier)
  19048. Subject: Distributed programming with C on heterogeneous UNIX-networks!
  19049. Keywords: parallel programming, distributed programming, Distributed C
  19050. Originator: pleierc@hpeick9.informatik.tu-muenchen.de
  19051. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  19052. Organization: Technische Universitaet Muenchen, Germany
  19053. Date:     Fri, 29 Oct 1993 10:41:18 +0100
  19054.  
  19055.  
  19056. Distributed programming with C on heterogeneous UNIX-networks!
  19057.  
  19058. The Distributed C Development Environment is now availible by 
  19059. anonymous ftp from ftp.informatik.tu-muenchen.de in the directory
  19060. /local/lehrstuhl/eickel/Distributed_C.
  19061.  
  19062. The Distributed C Development Environment was developed at Technische
  19063. Universitaet Muenchen, Germany, at the chair of Prof. Dr. J. Eickel and is 
  19064. a collection of tools for parallel and distributed programming on single-
  19065. processor-, multiprocessor- and distributed-UNIX-systems, especially on 
  19066. heterogenous networks of UNIX computers. The environment's main purpose 
  19067. is to support and to simplify the development of distributed applications 
  19068. on UNIX networks. It consists of a compiler for a distributed programming
  19069. language, called Distributed C, a runtime library and several useful tools.
  19070.  
  19071. The programming model is based on explicit concurrency specification in the 
  19072. programming language DISTRIBUTED C, which is an extension of standard C. 
  19073. The language constructs were mainly taken from the language CONCURRENT C
  19074. developed by N. Gehani and W. D. Roome and are based on the concepts for
  19075. parallel programming implemented in the language ADA. Distributed C makes 
  19076. possible the common programming in C together with the user-friendly 
  19077. programming of process management, i. e. the specification, creation, 
  19078. synchronization, communication and termination of concurrently executed 
  19079. processes.
  19080.  
  19081. The Distributed C Development Environment supports and simplifies the dis-
  19082. tributed programming in several ways:
  19083.  
  19084.     o Development time is reduced by checking Distributed C programs for
  19085.       errors during compilation. Because of that, errors within communication
  19086.       or synchronization actions can be easier detected and avoided.
  19087.     o Programming is simplified by allowing the use of simple pointer types
  19088.       even on loosely-coupled systems. This is perhaps the most powerful
  19089.       feature of Distributed C. In this way, dynamic structures like chained
  19090.       lists or trees can be passed between processes elegantly and easily -
  19091.       even in heterogeneous networks. Only the anchor of a dynamic structure
  19092.       must be passed to another process. The runtime system automatically
  19093.       allocates heap space and copies the complete structure.
  19094.     o Developement is user-friendly by supporting the generation and 
  19095.       installation of the executable files. A special concept was developed
  19096.       for performing the generation and storage of binaries by local and
  19097.       remote compilation in heterogeneous UNIX-networks.
  19098.     o Programming difficulty is reduced by software-aided allocating processes
  19099.       at runtime. Only the system administrator needs to have special knowledge
  19100.       about the target system's hardware. The user can apply tools to map the
  19101.       processes of a Distributed C program to the hosts of a concrete target
  19102.       system.
  19103.     o Execution time is reduced by allocating processes to nodes of a network
  19104.       with a static load balancing strategy.
  19105.     o Programming is simplified because singleprocessor-, multiprocessor- and
  19106.       distributed-UNIX-systems, especially homogeneous and heterogeneous UNIX-
  19107.       networks can be programmed fully transparently in Distributed C.
  19108.  
  19109. The Distributed C Development Environment consists mainly of the tools:
  19110.  
  19111.     o Distributed C compiler (dcc): 
  19112.       compiles Distributed C to standard C.
  19113.     o Distributed C runtime library (dcc.a): 
  19114.       contains routines for process creation, synchonization, ...
  19115.     o Distributed C administration process (dcadmin):
  19116.       realizes special runtime features.
  19117.     o Distributed C installer program (dcinstall): 
  19118.       performes the generation and storage of binaries by local 
  19119.       and remote compilation in heterogeneous UNIX-networks.
  19120.  
  19121. The environment runs on the following systems:
  19122.  
  19123.     o Sun SPARCstations (SunOS), 
  19124.     o Hewlett Packard workstations (HP/UX),
  19125.     o IBM workstations (AIX), 
  19126.     o Convex supercomputers (ConvexOS),
  19127.     o IBM Workstations (AIX).
  19128.     o homogeneous and heterogeneous networks of the systems as mentioned above.
  19129.  
  19130. Moreover the implementation was designed for the use on Intel iPSC/2s. 
  19131.  
  19132. The Distributed C Development Environment source code is provided "as is" as
  19133. public domain software and distributed in the hope that it will be useful,
  19134. but without warranty of any kind.
  19135.  
  19136. -- 
  19137.  
  19138. Christoph Pleier
  19139.  
  19140. pleierc@informatik.tu-muenchen.de
  19141.  
  19142.  
  19143. Approved: parallel@hubcap.clemson.edu
  19144. Follow-up: comp.parallel
  19145. Path: bounce-back
  19146. Newsgroups: comp.parallel
  19147. From: gibaud@pulsar.univ-valenciennes.fr (Gibaud Alain)
  19148. Subject: Informations about Linda ( implementations )
  19149. Date: 29 Oct 1993 10:39:18 GMT
  19150. Organization: Universite des Sciences et Technologie de LILLE, France
  19151. Sender: gibaud@pulsar.univ-lille1.fr (Gibaud Alain)
  19152. Nntp-Posting-Host: pulsar.univ-valenciennes.fr
  19153. Keywords: Linda
  19154.  
  19155.  
  19156. I need any informations about Linda.
  19157.  
  19158. I would like to have pointers to papers , implementations ...
  19159.  
  19160. Where can i get papers ?
  19161.  
  19162. What are the existing implementations ?
  19163.  
  19164. Where can we get them ?
  19165.  
  19166. Is there any free fees programs ?
  19167.  
  19168. Please send your answer by email.
  19169. I will post a summary if there are interested people.
  19170.  
  19171. Thanks in advance .
  19172.  
  19173.  
  19174. A . Gibaud
  19175. Universite de Valenciennes
  19176. LGIL
  19177.  
  19178. Email : gibaud@pulsar.univ-valenciennes.fr
  19179.  
  19180.  
  19181.  
  19182. Approved: parallel@hubcap.clemson.edu
  19183. Follow-up: comp.parallel
  19184. Path: bounce-back
  19185. Newsgroups: comp.parallel
  19186. From: dbader@eng.umd.edu (David Bader)
  19187. Subject: QUERY: Parallel Algorithm Simulators
  19188. Organization: Professional Student, University of Maryland, College Park
  19189.  
  19190. Hello,
  19191.  
  19192.    I am looking for references to Parallel Algorithm simulators (parallel
  19193. programming environments) which run on sequential platforms (UNIX workstations,
  19194. PC's, etc.)
  19195.  
  19196.    Please email me any responses.
  19197. Thanks!
  19198.   david
  19199.  
  19200. David A. Bader 
  19201. Electrical Engineering Department
  19202. A.V. Williams Building
  19203. University of Maryland
  19204. College Park, MD 20742
  19205. 301-405-6755   
  19206.  
  19207. Internet: dbader@eng.umd.edu
  19208.  
  19209.  
  19210. Approved: parallel@hubcap.clemson.edu
  19211. Follow-up: comp.parallel
  19212. Path: bounce-back
  19213. Newsgroups: comp.parallel
  19214. From: stellner@Informatik.TU-Muenchen.DE (Georg Stellner)
  19215. Subject: Paragon Message-Passing Environment for Workstations Available
  19216. Keywords: Paragon, message-passing
  19217. Originator: stellner@sunbode17.informatik.tu-muenchen.de
  19218. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  19219. Organization: Technische Universitaet Muenchen, Germany
  19220. Date:     Fri, 29 Oct 1993 17:22:43 +0100
  19221. Reply-To: nxlib@informatik.tu-muenchen.de
  19222.  
  19223.  
  19224.  
  19225.  
  19226. Paragon Message-Passing Environment for Workstations Available
  19227.  
  19228.  
  19229. In order to develop applications for Paragon systems and to run
  19230. Paragon applications on a network of workstations we have developed
  19231. the NXLIB programming library. We are now releasing V1_0 of the
  19232. package under the terms of the GNU license agreement to the Paragon
  19233. and workstation community (currently an implementation for Sun SPARC
  19234. has been done, but ports to further machines will follow!).
  19235.  
  19236. The sources of the library and a User's Guide are available via
  19237. anonymous ftp from ftpbode.informatik.tu-muenchen.de. The related
  19238. files are located in the NXLIB directory.
  19239.  
  19240. To establish personal contacts to the authors the
  19241. nxlib@informatik.tu-muenchen.de email address can be used. 
  19242.  
  19243.  
  19244. Stefan Lamberts, Georg Stellner
  19245.  
  19246. -- 
  19247. *** Georg Stellner                     stellner@informatik.tu-muenchen.de ***
  19248. *** Institut fuer Informatik, SAB      phone:  +49-89-2105-2689           ***
  19249. *** Technische Universitaet Muenchen   fax:    +49-89-2105-8232           ***
  19250. *** 80290 Muenchen                     room:   S 1211                     ***
  19251. !!! ^^^^^^^^^^^^^^ new address, please update Your archives               !!! 
  19252.  
  19253. Approved: parallel@hubcap.clemson.edu
  19254. Follow-up: comp.parallel
  19255. Path: bounce-back
  19256. Newsgroups: comp.parallel
  19257. Date: Fri, 29 Oct 93 12:35:09 EDT
  19258. From: toci@dimacs.rutgers.edu (Pat Toci)
  19259. Subject: HERE IS THE WORKSHOP ANNOUNCEMENT TO SEND OUT FROM DIMACS
  19260.  
  19261.  
  19262.  
  19263.  
  19264.             PRELIMINARY PROGRAM and REGISTRATION INFORMATION
  19265.  
  19266.                          DIMACS Workshop on 
  19267.      Parallel Algorithms: From Solving Combinatorial Problems to Solving 
  19268.                       Grand Challenge Problems
  19269.  
  19270.                         November 17-19, 1993
  19271.  
  19272. In the context of the 1993-94 DIMACS special year on Massively Parallel
  19273. Computation, a three day workshop on ``Parallel Algorithms: From Solving 
  19274. Combinatorial Problems to Solving Grand Challenge Problems'' will be held 
  19275. on November 17-19, 1994.
  19276. The focus of the workshop will be the general area of parallel algorithms. 
  19277. The scope includes the study of basic problems in parallel computation, on
  19278. the one hand, and the relevance of parallel computation to various 
  19279. applications, including the so-called Grand Challenge Problems, on the
  19280. other hand.
  19281.  
  19282.  
  19283. PARTICIPATION
  19284.  
  19285. The workshop will be held at DIMACS at Rutgers University, Piscataway, 
  19286. New Jersey.  DIMACS is the National Science Foundation science and 
  19287. technology center for discrete mathematics and computer science.  It
  19288. is a consortium of Rutgers and Princeton Universities, AT&T Bell
  19289. Laboratories, and Bellcore.  Co-organizers for this workshop are:
  19290.  
  19291.         Jim Flanagan (CAIP-Rutgers) [flanagan@caip.rutgers.edu]
  19292.         Yossi Matias (AT&T Bell Labs) [matias@research.att.com]
  19293.         Vijaya Ramachandran (U. Texas) [vlr@cs.utexas.edu]
  19294.  
  19295. The workshop will include invited presentations and contributed talks.
  19296.  
  19297.  
  19298. REGISTRATION
  19299.  
  19300. The DIMACS Conference Center at Rutgers can accommodate about 100 participants.
  19301. Subject to this capacity constraint, the workshop is open to all researchers.  
  19302. To register, contact Pat Toci [toci@dimacs.rutgers.edu, (908) 932-5930]. If 
  19303. possible, please register by NOVEMBER 10, although registration at the 
  19304. conference is permitted.  THERE IS NO REGISTRATION FEE.
  19305.  
  19306.  
  19307. PRELIMINARY PROGRAM
  19308.  
  19309.  
  19310. Wednesday, November 17
  19311. =========================
  19312. 8:00 - 8:50 Light Breakfast
  19313. -------------------------
  19314. 8:55 - 9:00 Welcoming remarks from DIMACS
  19315.  
  19316. 9:00 - 9:30 NSF representative TBA [tentative]
  19317.  
  19318. 9:30 - 10:00 Gary Miller (CMU)
  19319.     Numeric and Combinatorial Aspects to Parallel Scientific Computation
  19320. -------------------------
  19321. 10:00 - 10:30 Coffee Break
  19322. -------------------------
  19323. 10:30 - 11:00 Richard Cole (NYU) 
  19324.     2-D Pattern Matching 
  19325.  
  19326. 11:00 - 11:30 Uzi Vishkin  (Maryland & Tel Aviv)
  19327.     Efficient Labeling of Substrings
  19328.  
  19329. 11:30 - 12:00 Pierre Kelsen (U British Columbia)
  19330.     Constant Time Parallel Indexing of Points in a Triangle
  19331.  
  19332. 12:00 - 12:20 Pangfeng Liu (DIMACS)
  19333.     Experiences with Parallel N-body simulations
  19334. -------------------------
  19335. 12:30 - 2:00 LUNCH
  19336. -------------------------
  19337. 2:00 - 2:30 Victor Pan (CUNY) 
  19338.     Efficient Parallel computations in Linear Algebra with Applications
  19339.  
  19340. 2:30 - 2:50 Roland Wunderling (Berlin)
  19341.     On the Impact of Communication Latencies on Distributed Sparse LU 
  19342.     Factorization
  19343.  
  19344. 2:50 - 3:20 Ian Parberry (North Texas U)     
  19345.     Algorithms for Touring Knights 
  19346. -------------------------
  19347. 3:20 - 3:50 Coffee Break
  19348. -------------------------
  19349. 3:50 - 4:20 Phil Klein (Brown)
  19350.     A Linear-Processor Polylog-Time Parallel Algorithm for Shortest 
  19351.     Paths in Planar Graphs
  19352.  
  19353. 4:20 - 4:50 Edith Cohen (Bell Labs)
  19354.     Undirected Shortest Paths in Polylog-Time and Near-Linear Work
  19355.  
  19356. 4:50 - 5:20 Lin Chen (USC)
  19357.     Graph Isomorphism and Identification Matrices: Parallel Algorithms
  19358. -------------------------
  19359. 5:30 Wine and Cheese Reception
  19360. -------------------------
  19361.  
  19362. Thursday, November 18
  19363. =========================
  19364. 8:00 - 8:45 Light Breakfast
  19365. -------------------------
  19366. 8:50 - 9:30  TBA 
  19367.  
  19368. 9:30 - 10:00 Vijaya Ramachandran (U Texas at Austin)
  19369.     Parallel Graph Algorithms: Theory and Implementation
  19370. -------------------------
  19371. 10:00-10:30 Coffee Break
  19372. -------------------------
  19373. 10:30 - 11:00 Zvi Kedem (NYU)        
  19374.     Towards High-Performance Fault-Tolerant Distributed Processing
  19375.  
  19376. 11:00 - 11:30 Torben Hagerup (Max Planck Inst)
  19377.     Fast Deterministic Compaction and its Applications
  19378.  
  19379. 11:30 - 12:00 Phil Gibbons (Bell Labs)
  19380.     Efficient Low Contention Parallel Algorithms
  19381.  
  19382. 12:00 - 12:30 Paul Spirakis (Patras)
  19383.     Paradigms for Fast Parallel Approximations for Problems that 
  19384.         are Hard to Parallelize 
  19385. -------------------------
  19386. 12:30 - 2:00 LUNCH
  19387. -------------------------
  19388. 2:00 - 2:40 Olof Widlund (NYU)         
  19389.     Some Recent Results on Schwarz Type Domain Decomposition Algorithms
  19390.  
  19391. 2:40 - 3:10 Jan Prins (U North Carolina at CH)
  19392.     The Proteus System for the Development of Parallel Algorithms
  19393.  
  19394. 3:10 - 3:40 Yuefan Deng (SUNY at Stony Brook)
  19395.     Parallel Computing Applied to DNA-protein Interaction Study:
  19396.     A Global Nonlinear Optimization Problem
  19397. -------------------------
  19398. 3:40 - 4:10 Coffee Break
  19399. -------------------------
  19400. 4:10 - 4:40 Rajeev Raman (Maryland)
  19401.     Optimal Parallel Algorithms for Searching a Totally Monotone Matrix
  19402.  
  19403. 4:40 - 5:10 Teresa Przytycka (Odense)
  19404.     Trade-offs in Parallel Computation of Huffman Tree and Concave
  19405.     Least Weight Subsequence
  19406.  
  19407. 5:10 - 5:40 Vijay Vazirani (DIMACS & IIT)
  19408.     A Primal-dual RNC Approximation Algorithm for (multi)-Set
  19409.         (multi)-Cover and Covering Integer Programs
  19410. -------------------------
  19411.  
  19412. Friday, November 19
  19413. =========================
  19414. 8:00 - 8:45 Light Breakfast
  19415. -------------------------
  19416. 8:50 - 9:20 Mike Goodrich (Johns Hopkins) 
  19417.     Parallel Methods for Computational Geometry
  19418.  
  19419. 9:20 - 9:50 Yossi Matias (Bell Labs)
  19420.     Highly Parallel Randomized Algorithms - Some Recent Results
  19421.  
  19422. 9:50 - 10:10 Dina Kravets (NJIT)        
  19423.     All Nearest Smaller Values on Hypercube with Applications
  19424. -------------------------
  19425. 10:10-10:40 Coffee Break
  19426. -------------------------
  19427. 10:40 - 11:10 Mike Atallah (Purdue)
  19428.     Optimal Parallel Hypercube Algorithms for Polygon Problems
  19429.  
  19430. 11:10 - 11:40 Ernst Mayr (Munich)
  19431.     Optimal Tree Contraction on the Hypercube and Related Network
  19432.  
  19433. 11:40 - 12:00 David Haglin (Mankato State U)
  19434.     Evaluating Parallel Approximation Algorithms: With a Case Study in 
  19435.     Graph Matching 
  19436.  
  19437. 12:00 - 12:20 Jesper Traff (Copenhagen)
  19438.     A Distributed Implementation of an Algorithm for the Maximum Flow Problem
  19439. -------------------------
  19440. 12:20 - 1:50 LUNCH
  19441. -------------------------
  19442. 1:50 - 2:20 Joseph JaJa (Maryland)         
  19443.     Efficient Parallel Algorithms for Image Processing
  19444.  
  19445. 2:20 - 2:50 Rainer Feldmann (Paderborn)
  19446.     Game Tree Search on Massively Parallel Systems
  19447.  
  19448. 2:50 - 3:10 Stefan Tschoke (Paderborn)
  19449.     Efficient Parallelization of a Branch & Bound Algorithm for the
  19450.     Symmetric Traveling Salesman Problem
  19451.  
  19452. 3:10 - 3:30 Erik Tarnvik (Umea, Sweden)
  19453.     Solving the 0-1 Knapsack Problem on a Distributed Memory Multicomputer
  19454. -------------------------
  19455. 3:30 - 4:00 Coffee Break
  19456. -------------------------
  19457. 4:00 - 4:30 Aravind Srinivasan (Institute for Advanced Study and DIMACS)
  19458.     Improved parallel algorithms via Approximating Probability Distributions
  19459.  
  19460. 4:30 - 4:50 Per Laursen (Copenhagen)
  19461.     Parallel Simulated Annealing Using Selection and Migration -- an Approach
  19462.     Inspired by Genetic Algorithms
  19463.  
  19464. 4:50 - 5:20 Zvi Galil (Columbia U & Tel Aviv)
  19465.     From the CRCW-PRAM to the HCUBE via the CREW-PRAM and the EREW-PRAM
  19466.        or In the Defense of the PRAM
  19467. -------------------------
  19468.  
  19469.  
  19470. TRAVEL AND HOTEL INFORMATION:
  19471.  
  19472. It is recommended that participants arriving by plane fly into
  19473. Newark Airport. Flying into Kennedy or La Guardia can add more than
  19474. an hour to the travel time to DIMACS.
  19475.  
  19476. DIMACS has successfully and quite pleasantly used the Comfort Inn and
  19477. the Holiday Inn, both in South Plainfield - they are next to each other.
  19478. The Comfort Inn gives DIMACS the rate of $40.00 and the Holiday Inn of
  19479. $60.00 (includes a continental breakfast).  The Comfort Inn's # is
  19480. 908-561-4488.  The Holiday Inn's # is 908-753-5500.  They both provide
  19481. free van service to and from DIMACS.  If desired, hotel reservations
  19482. can be made by Pat Toci [toci@dimacs.rutgers.edu, (908) 932-5930], the 
  19483. workshop coordinator.  She will need to know the date of arrival and 
  19484. departure, which hotel is preferred, and a credit card and expiration number.
  19485.  
  19486. To travel between Newark Airport and DIMACS/hotels, we recommend ICS
  19487. Van Service, 1-800-225-4427.  The rate is $19.00 per person.  It must
  19488. be booked in advance.  From the New York airports, participants may take
  19489. the Grayline Air (bus) Shuttle (1-800-451-0455) to Newark and then
  19490. ICS Van service from there.
  19491.  
  19492. Participants arriving to DIMACS by car will need a parking permit.
  19493. Parking permits can be obtained in advance by sending email to Pat Toci.
  19494. Otherwise, they can be obtained any day of the workshop.
  19495.  
  19496. All workshop events will take place at DIMACS, located in the CoRE Building
  19497. of Rutgers University, Busch Campus, in Piscataway, New Jersey.
  19498.  
  19499. For further questions regarding local transportation and accommodations,
  19500. or to obtain detailed driving directions to the hotels and to DIMACS,
  19501. contact Pat Toci [toci@dimacs.rutgers.edu, (908) 932-5930].
  19502.  
  19503.  
  19504.  
  19505.  
  19506.  
  19507. Approved: parallel@hubcap.clemson.edu
  19508. Follow-up: comp.parallel
  19509. Path: bounce-back
  19510. From: drg@cs.city.ac.uk (David Gilbert)
  19511. Newsgroups: comp.lang.prolog,comp.theory,comp.parallel,sci.logic
  19512. Subject: Workshop on concurrency in computational logic
  19513. Date: 29 Oct 1993 17:29:18 -0000
  19514. Organization: Computer Science Dept, City University, London
  19515.  
  19516.  
  19517.                  Workshop on concurrency in computational logic
  19518.  
  19519.                                December 13-14 1993
  19520.                   Department of Computer Science, City University,
  19521.                              London, United Kingdom
  19522.  
  19523.  
  19524. Concurrency is a seminal topic in computer science, and is a research area
  19525. of growing importance in the computational logic community.  The
  19526. methodologies required to describe, reason about and construct such
  19527. systems encompass a wide range of viewpoints and some are still quite
  19528. recent in origin. It is the aim of this workshop to collect researchers
  19529. together in order to facilitate the exchange of ideas on concurrency in
  19530. computational logic. Contributions are invited on the following topics:
  19531.  
  19532. * system specification
  19533. * semantics and theory 
  19534. * language design
  19535. * programming methodologies
  19536. * program analysis and transformation
  19537. * programming environments
  19538.  
  19539. Submissions can be extended abstracts or full papers, and should be
  19540. limited to 15 pages.  Electronic submission is preferred, as either LaTeX
  19541. source or encapsulated postscript.  Research students are particularly
  19542. encouraged to make informal presentations of their research activities,
  19543. based around a brief abstract, or to submit contributions for a poster
  19544. display. 
  19545.  
  19546. Submissions should be sent to the following address and should be received
  19547. by 31 October 1993
  19548.  
  19549. Dr. D. Gilbert
  19550. Department of Computer Science,
  19551. City University
  19552. Northampton Square
  19553. London EC1V 0HB
  19554. UK
  19555.  
  19556. email: drg@cs.city.ac.uk
  19557.  
  19558. Proceedings will be distributed on an informal basis at the workshop to
  19559. encourage presentation of ongoing work. However, it is intended that selected
  19560. papers will be published in formal proceedings after the workshop.
  19561.  
  19562. This workshop is organised jointly by City University and the
  19563. University of Namur under the auspices of the Association of Logic
  19564. Programming (UK), the British Council (UK), and the Commissariat
  19565. General aux Relations Internationales (Belgium).
  19566.  
  19567. Programme committee:
  19568.  
  19569. Koen De Bosschere, University of Gent, Belgium
  19570. David Gilbert, City University, UK
  19571. Jean-Marie Jacquet, University of Namur, Belgium
  19572. Luis Monteiro, University of Lisbon, Portugal
  19573. Catuscia Palamidessi, University of Genova, Italy
  19574. Jiri Zlatuska, Masaryk University, Czech Republic
  19575.  
  19576.  
  19577. Important dates:
  19578.  
  19579. Deadline for paper submission: 31 October 1993
  19580. Notification for acceptance of presentation: 22 November 1993
  19581.  
  19582.  
  19583.  
  19584. -- 
  19585. D R Gilbert                                   tel:    +44-71-477-8444 (direct)
  19586. Department of Computer Science                fax:    +44-71-477-8587
  19587. City University, Northampton Square         email:    drg@cs.city.ac.uk
  19588. Northampton Square, London  EC1V 0HB, UK     uucp:    drg@citycs.uucp
  19589.  
  19590. Approved: parallel@hubcap.clemson.edu
  19591. Follow-up: comp.parallel
  19592. Path: bounce-back
  19593. Newsgroups: comp.parallel
  19594. From: mayshah@gandalf.rutgers.edu (Mayank Shah)
  19595. Newsgroups: comp.parallel,comp.protocols.tcp-ip,comp.unix.programmer,comp.unix.questions
  19596. Subject: Re: Availability of a Distributed Computing Environment API?
  19597. Date: 30 Oct 93 04:37:25 GMT
  19598. References: <1993Oct25.154118.11125@hubcap.clemson.edu>
  19599. Followup-To: comp.parallel
  19600. Organization: Rutgers Univ., New Brunswick, N.J.
  19601.  
  19602.  
  19603. blacey@cerf.net (Bruce B. Lacey) writes:
  19604.  
  19605.  
  19606. >We are in the process of developing an image processing workbench that
  19607. >will have services distributed amongst multiple UNIX machines. To
  19608. >support this distributed computing environment (DCE) paradigm (multiple
  19609. >clients, multiple servers), we need a priority based message passing
  19610. >mechanism that operates using UNIX sockets. While we can develop our
  19611. >own, I am sure that we are not alone in this need. I was wondering if
  19612. >any fellow netters know of a commercial or preferably shareware package
  19613. >that provides this sort of message passing mechanism over UNIX sockets.
  19614.  
  19615.  
  19616.  
  19617.  
  19618. I am also intrested in such a thing, so I would appriciate it if you could
  19619. post your comments on the net.
  19620.  
  19621. Thanks, 
  19622.  
  19623.   Mayank
  19624. -- 
  19625. ------------------------------------------------------------------------------
  19626. Mayank Shah                Rutgers University
  19627. mayshah@gandalf.rutgers.edu
  19628.  
  19629. Approved: parallel@hubcap.clemson.edu
  19630. Follow-up: comp.parallel
  19631. Path: bounce-back
  19632. Newsgroups: comp.parallel
  19633. From: elm@cs.berkeley.edu (ethan miller)
  19634. Subject: Re: The Future of Parallel Computing
  19635. Date: 30 Oct 93 16:14:50
  19636. Organization: Berkeley--Shaken, not Stirred
  19637. References: <1993Oct14.131912.9126@hubcap.clemson.edu>
  19638.     <1993Oct19.154929.15823@hubcap.clemson.edu>
  19639.     <DMB.93Oct28093859@gorm.lanl.gov>
  19640. Reply-To: elm@cs.berkeley.edu
  19641. Nntp-Posting-Host: terrorism.cs.berkeley.edu
  19642. In-Reply-To: dmb@gorm.lanl.gov's message of Thu, 28 Oct 1993 18:05:21 GMT
  19643.  
  19644. >>>>> "David" == David M Beazley <dmb@gorm.lanl.gov> writes:
  19645. David> In my opinion, relying on the compiler to do everything for you
  19646. David> encourages lazy programming and contributes nothing to pushing
  19647. David> the performance limits of parallel computing hardware or
  19648. David> software.
  19649.  
  19650. This statement sounds remarkably like one that might have been made
  19651. around the time that Fortran was invented.  "How do you expect your
  19652. program to perform well if you let some compiler turn it into
  19653. assembly?  If you want to push the performance limits of your
  19654. hardware, you *have* to code in assembly."  These days, very few
  19655. people write assembly language for applications on sequential
  19656. computers.  Yes, they could probably make their program run faster if
  19657. they did.  However, the added effort isn't worth the relatively small
  19658. speedup.  The goal of compiling for parallel code should NOT
  19659. necessarily be "the best possible code;" it should be "reasonably
  19660. close to the best possible code."
  19661.  
  19662. ethan
  19663. --
  19664. +---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+
  19665. ethan miller--cs grad student   | "Why is it whatever we don't
  19666. elm@cs.berkeley.edu             |  understand is called a 'thing'?"
  19667. #include <std/disclaimer.h>     |  -- "Bones" McCoy
  19668.  
  19669. Approved: parallel@hubcap.clemson.edu
  19670. Follow-up: comp.parallel
  19671. Path: bounce-back
  19672. Newsgroups: comp.parallel
  19673. From: coats@cardinal.ncsc.org (Carlie Coats)
  19674. Subject: SGI parallel Fortran -- Help!
  19675. Reply-To: coats@mcnc.org
  19676. Organization: North Carolina Supercomputing Center
  19677.  
  19678. I have a reduction operation I'm trying to get to run in parallel under
  19679. SGI's Power Fortran (which offers loop-level data parallelism).  I've
  19680. tried several different (IMHO reasonable) variations, but the compiler
  19681. won't generate parallel output for them.  Can someonne help me?
  19682.  
  19683. The code looks like:
  19684.  
  19685.         ...
  19686.         PARAMETER( NCOLS=35, NROWS=32, NLEVS=6, DTMAX=900.0 )
  19687.         REAL    DT, DTT( NROWS, NCOLS, NLEVS )
  19688.         INTEGER R, C, L
  19689.         ...    !  compute array DTT.  Then:
  19690.         DT = DTMAX
  19691.         DO  33 R = 1, NROWS
  19692.         DO  22 C = 1, NCOLS
  19693.         DO  11 L = 1, NLEVS
  19694.             DT = MIN( DT, DTT( L,C,R )
  19695. 11      CONTINUE
  19696. 22      CONTINUE
  19697. 33      CONTINUE
  19698.         ...
  19699.  
  19700. For examle, the following variation looks *to* *me* as though it ought
  19701. to be legitimately parallelizable.  But the compiler insists in doing it
  19702. as scalar code, complaining about a data dependency in DT.  What gives??
  19703.  
  19704. Please email replies to  coats@mcnc.org.
  19705.  
  19706.         ...
  19707.         REAL  DTTT( NROWS )    !  used for the reduction.
  19708.         ...    !  compute array DTT.  Then:
  19709.         DO  33 R = 1, NROWS    ! *should* be parallel on R
  19710.             DTTT( R ) = DTMAX
  19711.             DO  22 C = 1, NCOLS
  19712.             DO  11 L = 1, NLEVS
  19713.                 DTTT( R ) = MIN( DTTT( R ), DTT( L,C,R ) )
  19714. 11          CONTINUE
  19715. 22          CONTINUE
  19716. 33      CONTINUE
  19717.         DT = DTTT( 1 )        !  now reduce over R:
  19718.         DO  33 R = 2, NROWS    !  this loop is scalar
  19719.             DT = MIN( DT, DTTT( R ) )
  19720. 33      CONTINUE
  19721.         ...
  19722.  
  19723. Thanks in advance.
  19724.  
  19725.  
  19726. Carlie J. Coats, Jr., Ph.D.                 phone (919)248-9241
  19727. MCNC Environmental Programs                 fax   (919)248-9245
  19728. 3021 Cornwallis Rd.                              coats@mcnc.org
  19729. RTP, NC  27709-2889                    xcc@epavax.rtpnc.epa.gov
  19730.  
  19731. "My opinions are my own, and I've got *lots* of them!"
  19732.  
  19733.  
  19734.  
  19735. Approved: parallel@hubcap.clemson.edu
  19736. Follow-up: comp.parallel
  19737. Path: bounce-back
  19738. Newsgroups: comp.parallel
  19739. From: hains@iro.umontreal.ca (Gaetan Hains)
  19740. Subject: professeur a Montreal
  19741. Sender: news@iro.umontreal.ca
  19742. Organization: Universite de Montreal, Canada
  19743. Date: Sun, 31 Oct 1993 15:26:05 GMT
  19744. Apparently-To: uunet!comp-parallel
  19745.  
  19746. Mon de'partement recherche des candidats pour un poste de professeur en 
  19747. informatique.  Les candidats spe'cialise's en paralle'lisme sont prie's
  19748. de me contacter tre`s rapidement.
  19749.  
  19750. Gae'tan Hains   De'partement d'informatique et de recherche ope'rationnelle
  19751. Universite' de Montre'al, C.P.6128 succursale A, Montre'al, Que'bec H3C 3J7
  19752. Tel. +1 514 343-5747   |   Fax. +1 514 343-5834   |  hains@iro.umontreal.ca
  19753.  
  19754.  
  19755. ------
  19756.  
  19757.  
  19758.       Departement d'informatique et de recherche operationnelle
  19759.                                    
  19760.                           Priere d'afficher
  19761.                                    
  19762.                         Universite de Montreal
  19763.  
  19764.                              Informatique
  19765.                                   et
  19766.                        Recherche operationnelle
  19767.  
  19768. Le Departement d'informatique et de recherche operationnelle (DIRO)
  19769. sollicite des candidatures pour un poste de professeur en informatique
  19770. et un poste de professeur en recherche operationnelle.  Du cote
  19771. informatique, les domaines d'expertise sont le genie logiciel ou le
  19772. parallelisme.  Du cote recherche operationnelle, le domaine
  19773. d'expertise privilegie est l'etude des aspects stochastiques de la
  19774. recherche operationnelle, par exemple: modeles stochastiques,
  19775. simulation et optimisation stochastique.
  19776.  
  19777. Le DIRO offre des programmes de B.Sc., M.Sc. et Ph.D. en informatique
  19778. et recherche operationnelle ainsi qu'un B.Sc. specialise
  19779. bidisciplinaire en mathematiques-informatique.  Le DIRO compte 40
  19780. professeurs, dont 9 sont en recherche operationnelle.
  19781.  
  19782. L'Universite de Montreal est la plus grande universite francophone en
  19783. Amerique.  Le DIRO possede des laboratoires de recherche specialises
  19784. supportes par un reseau integre de 4 serveurs departementaux, de 6
  19785. serveurs de laboratoire, de 90 stations Unix (DEC-Alpha, SPARC,
  19786. Silicon Graphics), et de micros (IBM PC, Macintosh).  Les Services
  19787. Informatiques de l'Universite donnent acces a un reseau de 60
  19788. X-Terminaux et 33 stations IRIS-Indigo pour l'enseignement de premier
  19789. cycle ainsi qu'a 6 super-minis Silicon Graphics pour le calcul
  19790. intensif.  Tous ces reseaux donnent acces a l'Internet.
  19791.  
  19792. Fonctions:            Enseignement aux trois cycles; recherche;
  19793.                 direction d'etudiants aux cycles superieurs.
  19794.  
  19795. Exigences:            Doctorat en informatique, recherche 
  19796.                 operationnelle ou dans un domaine connexe.
  19797.  
  19798. Traitement:            Selon les competences et la convention 
  19799.                                 collective.
  19800.  
  19801. Entree en fonction:    Le 1er juin 1994.
  19802.  
  19803. Les personnes interessees doivent faire parvenir leur curriculum
  19804. vitae, le nom de trois repondants et au maximum trois tires a part, au
  19805. plus tard le 30 novembre 1993 a:
  19806.  
  19807. Guy Lapalme
  19808. Directeur
  19809. Departement d'informatique et de recherche operationnelle
  19810. Universite de Montreal
  19811. C.P. 6128, Succ. A
  19812. Montreal (Quebec)
  19813. H3C 3J7
  19814.  
  19815. Telephone:    (514) 343-7090
  19816. Telecopieur:    (514) 343-5834
  19817. e-mail:    lapalme@iro.umontreal.ca
  19818.                     
  19819. Conformement aux exigences prescrites en matiere d'immigration
  19820. au Canada, cette annonce s'adresse, en priorite, aux citoyens
  19821. canadiens et aux residents permanents.
  19822. -- 
  19823.  
  19824. Gae'tan Hains   De'partement d'informatique et de recherche ope'rationnelle
  19825. Universite' de Montre'al, C.P.6128 succursale A, Montre'al, Que'bec H3C 3J7
  19826. Tel. +1 514 343-5747   |   Fax. +1 514 343-5834   |  hains@iro.umontreal.ca
  19827.  
  19828. Approved: parallel@hubcap.clemson.edu
  19829. Newsgroups: comp.parallel
  19830. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  19831. Subject: Voting on Newsgroups.
  19832.  
  19833.  
  19834. I say again, I cannot be the acceptor of your votes. There are rules for
  19835. forming new newsgroups which require a different method (So I can't stuff
  19836. the ballot box).
  19837.  
  19838. Contact the author directly.
  19839.  
  19840. =========================== MODERATOR ==============================
  19841. Steve Stevenson                            fpst@hubcap.clemson.edu
  19842. Administrative address                     steve@hubcap.clemson.edu
  19843. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  19844. Wanted: Sterbetz, P. Floating Point Computation
  19845.  
  19846. Approved: parallel@hubcap.clemson.edu
  19847. Follow-up: comp.parallel
  19848. Path: bounce-back
  19849. Newsgroups: comp.parallel
  19850. From: eugene@nas.nasa.gov (Eugene N. Miya)
  19851. Subject: Biblio update
  19852.  
  19853. Trick or treat.
  19854. Treat.  I updated the biblio (in the current temporary location) before
  19855. going on vacation.
  19856.  
  19857.  
  19858. Approved: parallel@hubcap.clemson.edu
  19859. Follow-up: comp.parallel
  19860. Path: bounce-back
  19861. Newsgroups: comp.parallel
  19862. From: ohnielse@fysik.dth.dk (Ole Holm Nielsen)
  19863. Subject: Re: The Future of Parallel Computing
  19864. Reply-To: ohnielse@fysik.dth.dk
  19865. Organization: Physics Department, Techn. Univ. of Denmark
  19866. References: <DMB.93Oct28093859@gorm.lanl.gov>
  19867.  
  19868. I often compare the use of computers for scientific purposes to the use
  19869. of experimental equipment (vacuum chambers, electron guns, what have
  19870. you).  Any good experimentalist knows his equipment well, and knows how
  19871. to push it to produce the results that he is seeking.  The same with
  19872. computers:  A computational scientist has to know his computer
  19873. sufficiently well to make it produce results (nearly) as efficiently as
  19874. possible.  The scientist will have to push his methods (i.e., codes)
  19875. whenever he acquires a new hot box.  This becomes especially necessary
  19876. when new breakthroughs appear, such as the parallel computers of today,
  19877. or the vector processors a decade ago (remember... ?).
  19878.  
  19879. I believe there is no excuse for ignoring the hardware you use for
  19880. scientific computing.  The scientist must always push ahead the
  19881. frontiers, and one way is to make the best use of the equipment put at
  19882. his disposal.  A corollary is that "black-box" usage of codes or
  19883. compilers in scientific computing will often be poor use of resources.
  19884. I think this is entirely different from commercial software, where
  19885. black-box usage and portability are important features.
  19886.  
  19887. Ole H. Nielsen
  19888. Department of Physics, Building 307
  19889. Technical University of Denmark, DK-2800 Lyngby, Denmark
  19890. E-mail: Ole.H.Nielsen@fysik.dth.dk
  19891. Telephone: (+45) 45 93 12 22 - 3187
  19892. Telefax:   (+45) 45 93 23 99
  19893.  
  19894.  
  19895.  
  19896. Approved: parallel@hubcap.clemson.edu
  19897. Follow-up: comp.parallel
  19898. Path: bounce-back
  19899. Newsgroups: comp.parallel
  19900. Date: Mon, 1 Nov 1993 09:31:20 GMT
  19901. From: I Flockhart <ianf@epcc.edinburgh.ac.uk>
  19902. Subject: Info on out of core parallel processing?
  19903. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  19904. Organization: Edinburgh Parallel Computing Centre
  19905.  
  19906. I'm currently looking into the parallelisation of global and/or
  19907. non-regular (3d) image processing operations, where the images concerned
  19908. do not fit into distributed core memory.  A typcial example might be the
  19909. Fourier transform. 
  19910.  
  19911. I'm interested in collecting references for any literature that may help
  19912. with this topic, and also to hear from anyone who has worked on similar
  19913. problems in the past. 
  19914.  
  19915. If you can assist with either a reference or the benefit of experience,
  19916. please email me directly at:
  19917.     ianf@epcc.ed.ac.uk
  19918.  
  19919. I'll collate any references I get and post them back to comp.parallel at
  19920. a later date.
  19921.  
  19922. Thanks
  19923.  
  19924. Ian
  19925.  
  19926.  ----------------------------------------------------------------------
  19927. |      e|p     Edinburgh Parallel Computing Centre                     |
  19928. |      c|c     University of Edinburgh                                 |
  19929.  ----------------------------------------------------------------------
  19930.  
  19931.  
  19932. Approved: parallel@hubcap.clemson.edu
  19933. Newsgroups: comp.parallel
  19934. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  19935. Subject: Need Replacement Moderator for Comp.Parallel
  19936.  
  19937. I've been the moderator of this newsgroup since 1987. I think it's about
  19938. time for me to move on. My professional duties are catching up with me.
  19939. Therefore, I'd like someone to volunteer to be moderator.
  19940.  
  19941. The job is not hard---it takes (on most days) much less than an hour a day.
  19942. Mondays are the worst and that takes about 15-30 minutes to get everything
  19943. posted. Moderating is very important. It keeps the tone professional and
  19944. it supports a thirty-five member mailing list. We have readers who do
  19945. not have net access all over Asia, Europe, and the Americas---the moderating
  19946. sets the tone for services and discussions.
  19947.  
  19948. If you're SERIOUSLY interested, contact me. If no one offers, the group
  19949. will become unmoderated at the end of the year.
  19950.  
  19951. It's been fun and informative. Thanks for you patience.
  19952.  
  19953. Steve
  19954. =========================== MODERATOR ==============================
  19955. Steve Stevenson                            fpst@hubcap.clemson.edu
  19956. Administrative address                     steve@hubcap.clemson.edu
  19957. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  19958. Wanted: Sterbetz, P. Floating Point Computation
  19959. Approved: parallel@hubcap.clemson.edu
  19960. Newsgroups: comp.parallel
  19961. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  19962. Subject: Clemson Having Catastrophic Hardware Problems. No news for a while
  19963.  
  19964. Approved: parallel@hubcap.clemson.edu
  19965. Follow-up: comp.parallel
  19966. Path: bounce-back
  19967. Newsgroups: comp.parallel,comp.parallel.pvm
  19968. From: c0031010@ws.rz.tu-bs.de (Josef Schuele)
  19969. Subject: PARMACS-PVM
  19970. Message-ID: <C0031010.93Nov1161851@rznb33.rz.tu-bs.de>
  19971. Sender: postnntp@ibr.cs.tu-bs.de (Mr. Nntp Inews Entry)
  19972. Organization: TU Braunschweig, Rechenzentrum (ANW) , Germany.
  19973. Date: Mon, 1 Nov 1993 15:18:51 GMT
  19974.  
  19975. Hi,
  19976. does anybody has any numbers comparing PVM and PARMACS ?
  19977.  
  19978. Thanks,
  19979. Josef Schuele
  19980.  
  19981. Approved: parallel@hubcap.clemson.edu
  19982. Follow-up: comp.parallel
  19983. Path: bounce-back
  19984. Newsgroups: comp.parallel
  19985. Date: 3 Nov 1993 16:12:59 GMT
  19986. From: angelo@carie.mcs.mu.edu (Angelo Gountis)
  19987. Subject: AI and Parallel Machines
  19988. Organization: Marquette University - Dept. Math, Statistics, & Comp. Sci.
  19989.  
  19990. Hello All,
  19991.  
  19992. I am looking for references regrading the impact parallel processing has  
  19993. had on projects involving AI.  I realize this is rather vague but I have  
  19994. not been able to narrow it down much from the information I have found as  
  19995. of now.  I want to approach this from the angle of what parallel  
  19996. processing has allowed AI to achieve that would not be fessible/possible  
  19997. with out it.
  19998.  
  19999. thanks for any help.
  20000.  
  20001. angelo
  20002. gounti@studsys.mscs.mu.edu
  20003. NeXT Mail: angelo@carie.mcs.mu.edu 
  20004.  
  20005. Approved: parallel@hubcap.clemson.edu
  20006. Follow-up: comp.parallel
  20007. Path: bounce-back
  20008. From: edgar@math.ohio-state.edu (Gerald Edgar)
  20009. Newsgroups: sci.math,comp.theory,comp.parallel
  20010. Subject: Re: Journal Article Acceptance timings
  20011. Date: 1 Nov 1993 08:12:16 -0500
  20012. Organization: The Ohio State University, Dept. of Math.
  20013. References: <1993Oct27.184815.29227@hubcap.clemson.edu>
  20014.  
  20015.  
  20016. The Notices of the Amer Math Soc publishes once a year a survey of
  20017. the backlogs of the mathematics journals.  The most recent one is in
  20018. the April, 1993, issue.
  20019.  
  20020. The median observed waiting time ranged from 4 months to 33 months.
  20021.  
  20022. -- 
  20023.   Gerald A. Edgar                Internet:  edgar@math.ohio-state.edu
  20024.   Department of Mathematics      Bitnet:    EDGAR@OHSTPY
  20025.   The Ohio State University      telephone: 614-292-0395 (Office)
  20026.   Columbus, OH 43210             -292-4975 (Math. Dept.) -292-1479 (Dept. Fax)
  20027.  
  20028. Approved: parallel@hubcap.clemson.edu
  20029. Follow-up: comp.parallel
  20030. Path: bounce-back
  20031. Newsgroups: comp.parallel
  20032. From: Manu Thapar <manu@hplight.hpl.hp.com>
  20033. Subject: final CFP: Shared Memory Architectures Workshop
  20034.  
  20035.  
  20036.             CALL FOR PARTICIPATION
  20037.  
  20038.                International Workshop on 
  20039.      Support for Large-Scale Shared Memory Architectures
  20040.  
  20041.            to be held in conjunction with
  20042.             8th International Parallel Processing Symposium
  20043.  
  20044.  
  20045.                          April 26-29, 1994
  20046.                             Hotel Regina
  20047.                            Cancun, Mexico
  20048.  
  20049.                Sponsored by
  20050.  
  20051.        IEEE Technical Committee on Computer Architecture
  20052.        IEEE Technical Committee on Parallel Processing
  20053.  
  20054.  
  20055. SYMPOSIUM: The eighth annual International Parallel Processing
  20056. Symposium (IPPS '94) will be held April 26-29, 1994 at the Hotel
  20057. Regina, Cancun, Mexico. The symposium is sponsored by the IEEE
  20058. Computer Society's Technical Committee on Parallel Processing and will
  20059. be held in cooperation with ACM SIGARCH.  IPPS '94 is a forum for
  20060. engineers and scientists from around the world to present the latest
  20061. research findings in all aspects of parallel processing.
  20062.  
  20063. WORKSHOP: The first annual workshop on Scalable Shared Memory Systems
  20064. is sponsored by the Technical Committee on Computer Architecture and
  20065. the Technical Committee on Parallel Processing, which were established
  20066. by the IEEE Computer Society to advance knowledge in all areas of
  20067. computer architecture, parallel processing, and related technologies.
  20068. The workshop will be held on the first day of the Symposium (April 26).
  20069.  
  20070. Shared memory multiprocessors are quickly becoming an important form
  20071. of computer systems. The single address space provided by these
  20072. architectures provide the user with an easier programming model.  Many
  20073. commercial systems have been announced, or are under development.
  20074. Though shared memory systems provide a simple programming paradigm,
  20075. the architectural design of a scalable system has interesting
  20076. alternatives, some of which increase the hardware complexity.
  20077. Techniques that can improve the performance of the applications via
  20078. software, are also very interesting.
  20079.  
  20080. This workshop provides a forum for researchers and commercial
  20081. developers to meet and discuss the various hardware and software
  20082. issues involved in the design and use of scalable shared memory
  20083. multiprocessors. Software methods, such as virtual shared memory and
  20084. compiler support, are of special interest to this workshop.
  20085.  
  20086. Papers are invited in the areas such as (but not limited to) the following:
  20087.  
  20088. - Architectures for scalable shared memory systems
  20089. - Virtual shared memory
  20090. - Hardware techniques for scalable shared memory
  20091. - Operating system support
  20092. - Compiler optimization and support
  20093. - Application optimization and language support
  20094. - Performance evaluation via traces, analytical modeling or emulation
  20095. - Memory organization
  20096. - Interconnect topology
  20097. - Modeling techniques
  20098.  
  20099. To submit an original research paper, send four copies of your
  20100. complete manuscript (not to exceed 15 single-spaced pages of text
  20101. using point size 12 type on 8 1/2 X 11 inch pages) to the first
  20102. co-chair.  References, figures, tables, etc.  may be included in
  20103. addition to the fifteen pages of text.  Please include your postal
  20104. address, e-mail address, and telephone and fax numbers.  All
  20105. manuscripts will be reviewed.  Manuscripts must be received by November
  20106. 12, 1993.  Notification of review decisions will be mailed by December
  20107. 31, 1993.  Camera-ready papers are due January 31, 1994.  Proceedings
  20108. will be available at the Symposium.
  20109.  
  20110. Workshop Co-Chairs:
  20111.  
  20112. Manu Thapar                Kai Li
  20113. Hewlett Packard Research Labs        Department of Computer Science
  20114. 1501 Page Mill Road            Princeton University
  20115. Palo Alto, CA 94304            Princeton, NJ 08544
  20116. Internet: thapar@hplabs.hp.com        Internet: li@cs.princeton.edu
  20117. phone: 415-857-6284            phone: 609-258-4637
  20118. fax: 415-857-8526            fax: 609-258-1771
  20119.                     
  20120.  
  20121. James R. Goodman
  20122. Computer Sciences Department 
  20123. University of Wisconsin-Madison
  20124. 1210 West Dayton Street
  20125. Madison, WI 53706
  20126. Internet: goodman@cs.wisc.edu
  20127. phone: 608-262-0765
  20128.  
  20129.  
  20130.  
  20131. Don't Miss IPPS '94 In Cancun, Mexico!
  20132.  
  20133. The Yucatan peninsula with a shoreline of over 1600 kilometers is one
  20134. of Mexico's most exotic areas.  Over a thousand years ago the
  20135. peninsula was the center of the great Mayan civilization.  Cancun with
  20136. it's powder fine sand and turquoise water is a scenic haven for sun
  20137. lovers and archaeological buffs alike, and our Mexican hosts are eager
  20138. to extend every hospitality for our visit to their part of the world.
  20139.  
  20140. Air travel to Cancun is available from most major U.S. cities, and
  20141. U.S.  and Canadian citizens do not require passports to visit Mexico.
  20142. The Hotel Regina is a self-contained meeting facility with spacious,
  20143. air-conditioned rooms, on-site restaurants, and all the services of a
  20144. world class hotel.  Cancun is a dazzling resort with golf, tennis, and
  20145. every water sport under the sun, and the area offers exciting
  20146. nightlife, fabulous shopping, and historic Mayan ruins.
  20147.  
  20148. Join us in Cancun where once again researchers, system developers, and
  20149. users from around the world will convene to present leading
  20150. developments in parallel processing and related applications.  As in
  20151. the last 2 years, the first day of the symposium will feature
  20152. workshops and tutorials.  In addition to technical sessions, the
  20153. remaining 3 days will include the previously well-received parallel
  20154. systems fair as well as commercial participation.
  20155.  
  20156.  
  20157. Approved: parallel@hubcap.clemson.edu
  20158. Follow-up: comp.parallel
  20159. Path: bounce-back
  20160. Newsgroups: comp.parallel
  20161. From: Suresh Damodaran Kamal <skd@cacs.usl.edu>
  20162. Subject:Parallel Programming Paradigms:Question
  20163.  
  20164. I am looking for the "definitions" of parallel paradigms.
  20165. For example, consider master-slave. Can the slaves
  20166. talk to each other? Or does the paradigm imply only that
  20167. the master can "kill" slaves?
  20168.  
  20169. Any pointers to literature will be helpful.
  20170.  
  20171. -Suresh
  20172.  
  20173.  
  20174. -- 
  20175. ========================================================================
  20176. Suresh Damodaran-Kamal                    Holler: 318-231-5839(O)
  20177. P.O.Box 42322                                  318-269-9787(H)
  20178. Lafayette, LA 70504                     Email:skd@cacs.usl.edu 
  20179.     -Laughter reduces entropy of mind -:))))) 
  20180.  
  20181.  
  20182. Approved: parallel@hubcap.clemson.edu
  20183. Follow-up: comp.parallel
  20184. Path: bounce-back
  20185. Newsgroups: comp.parallel
  20186. From: prakash@cis.ohio-state.edu (ravi prakash)
  20187. Subject: code size vs. data size
  20188. Date: 1 Nov 1993 19:32:06 -0500
  20189. Organization: The Ohio State University Dept. of Computer and Info. Science
  20190.  
  20191. Could anybody provide me with references to works determining the ratio of
  20192. code size to data size for a wide variety of applications? 
  20193.  
  20194. For example, I have come across simulations of certain atmospheric effects 
  20195. where the code size(in megabytes) is about 200 times the size of the data
  20196. (megabytes) it works on. On the other hand, some SIMD implementations have
  20197. data size comparable to or greater than the size of the code.
  20198.  
  20199. If you could tell me the ratio of code size and data size for some 
  20200. implementations in the Grand Challenge Problems' domain too, along with the
  20201. language(s) and machine(s) used for the implementation, it would be a great
  20202. help.  
  20203.  
  20204. Thanks,
  20205. Ravi Prakash
  20206. ----------------------------------------------
  20207. Department of Computer and Information Science
  20208. The Ohio State University,
  20209. Columbus, OH 43210.
  20210. ----------------------------------------------
  20211.  
  20212. Approved: parallel@hubcap.clemson.edu
  20213. Follow-up: comp.parallel
  20214. Path: bounce-back
  20215. Newsgroups: comp.parallel
  20216. From: kerry@totara.cs.waikato.ac.nz (Kerry Guise)
  20217. Subject: barrier synchronisation
  20218. Date: 2 Nov 1993 04:33:29 GMT
  20219. Organization: The University of Waikato
  20220. Nntp-Posting-Host: totara.cs.waikato.ac.nz
  20221. Keywords: barrier ksr
  20222.  
  20223. I'm wondering if anyone can help me with the barrier synchronisation  
  20224. functions which are extensions of the KSR implementation of the pthreads  
  20225. library. I'm trying to port a program written for the KSR to Solaris 2.x  
  20226. and I've run up against this barrier :-). How easy would it be to  
  20227. implement my own barrier synchronisation mechanism using standard tools  
  20228. such as mutexes, cv's etc ? Can anyone suggest some papers I could read on  
  20229. the subject ?
  20230.  
  20231.     Thanks in advance,
  20232.         Kerry Guise
  20233.  
  20234. Approved: parallel@hubcap.clemson.edu
  20235. Follow-up: comp.parallel
  20236. Path: bounce-back
  20237. Newsgroups: comp.parallel
  20238. From: Ken Thomas <K.S.Thomas@ecs.soton.ac.uk>
  20239. Subject: Announcement---Applications for High Performance Computers
  20240. Date: 2 Nov 1993 12:10:34 -0000
  20241. Organization: Electronics and Computer Science, University of Southampton
  20242.  
  20243.  
  20244. Applications for High Performance Computers
  20245. Soultz, France
  20246. Date:    Dec 14th-17th, 1993
  20247.  
  20248. The aim of this course is to understand some aspects of current applications of
  20249. high performance computers.
  20250.  
  20251. There are three main objectives:
  20252. 1.  To give an overview of parallel hardware and software and to explore the
  20253.     role of performance critical parameters. Matrix kernels are also explored.
  20254.  
  20255. 2.  To give awareness of the tools that are likely to be important in the future.
  20256.     This includes HPF (High performance Fortran) and the message passing standards.
  20257.  
  20258. 3.  To put together applications in diverse areas of science and engineering. 
  20259.     There are speakers on seismic modelling, CFD, Structural Analysis, Molecular
  20260.     dynamics and climate modelling.
  20261.  
  20262. Programme (provisional).
  20263.  
  20264. Day 1    14.00 Start Introduction and Welcome        
  20265.     Session 1    Overview
  20266.             Introduction to Parallel Hardware
  20267.             Introduction to Parallel Software 
  20268.             Panel Discussion
  20269.  
  20270. Day 2    Start 09.30
  20271.     Session 2    Performance Characterization
  20272.             Low-level Benchmarks and Performance Critical Parameters
  20273.             CFD                           
  20274.     Session 3    Applications I
  20275.             Seismic Modelling
  20276.             Climate Modelling 
  20277.             Panel Discussion
  20278.  
  20279. Day 3    Start 9.30
  20280.     Session 4    HPC Standards
  20281.             HPF
  20282.             Message-Passing Interface
  20283.             
  20284.     Session 5    Parallel Linear Algebra
  20285.             Structural Analysis
  20286.             Panel Discussion
  20287.  
  20288. Day 4    Start 09.00
  20289.     Session 6    The Parkbench Initiative
  20290.             Grand Challenge Applications
  20291.             Panel Discussion.
  20292.     Close 12.15
  20293.  
  20294. Cost  375 pounds sterling (Full Rate)
  20295.       275 pounds sterling for academic participants and members of ACT
  20296.       costs include lunch and refreshments throughout the day.
  20297.  
  20298.  
  20299. Minimum numbers  10
  20300.  
  20301. This course cannot be given unless there is a minimum of 10 participants. 
  20302. It will be necessary to receive the your registration no later than 
  20303. Monday 6th December, 1993.
  20304.  
  20305. Should the course not run, then all registration fees will be returned.
  20306.  
  20307. Applications for High Performance Computers
  20308. Soultz, France
  20309. Date:    November 2nd, 3rd, 4th and 5th, 1993
  20310. Applications for High Performance Computing
  20311.  
  20312. Registration Form
  20313.  
  20314. Title . . . . . . . . . . . . . . . . .
  20315.  
  20316. Surname  . . . . . . . . . . . . . . . . 
  20317.  
  20318. First Name  . . . . . . . . . . . . . . .
  20319.  
  20320. Institution  . . . . . . . . . . . . . . . . . . . . . . . . . . .
  20321.  
  20322.  
  20323. Address  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  20324.  
  20325.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  20326.  
  20327.  
  20328.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  20329.  
  20330.  
  20331.  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 
  20332.  
  20333.  
  20334. Tel:  . . . . . . . . . . . . . . . .. 
  20335.  
  20336. Fax:  . . . . . . . . . . . . . . . . . 
  20337.  
  20338.  
  20339. I enclose a cheque in the sum of  . . . . . . . . . . . . . . . . . .
  20340.  
  20341.  
  20342. Made Payable to a"University of Southampton".  Please forward cheque and registration to Telmat Informatique.
  20343.  
  20344.  
  20345.  
  20346.  
  20347.  
  20348. Venue:    Telmat Informatique
  20349.     Z.1. - 6 Rue de l'industrie, B P 12
  20350.     68360 Soultz Cedex
  20351.     France
  20352.     
  20353. Local Accommodation Arrangements contact:
  20354.  
  20355.     Rene Pathenay/Francoise Scheirrer
  20356.     Telmat Informatique
  20357.     Tel:  33 89 765110
  20358.     Fax:  33 89 742734
  20359.  
  20360.     Email:  pathenay@telmat.fr
  20361.  
  20362.  
  20363. Approved: parallel@hubcap.clemson.edu
  20364. Follow-up: comp.parallel
  20365. Path: bounce-back
  20366. Newsgroups: comp.parallel
  20367. From: ohnielse@fysik.dth.dk (Ole Holm Nielsen)
  20368. Subject: Re: The Future of Parallel Computing
  20369. Reply-To: ohnielse@fysik.dth.dk
  20370. Organization: Physics Department, Techn. Univ. of Denmark
  20371. References: <DMB.93Oct28093859@gorm.lanl.gov>
  20372.  
  20373. I often compare the use of computers for scientific purposes to the use
  20374. of experimental equipment (vacuum chambers, electron guns, what have
  20375. you).  Any good experimentalist knows his equipment well, and knows how
  20376. to push it to produce the results that he is seeking.  The same with
  20377. computers:  A computational scientist has to know his computer
  20378. sufficiently well to make it produce results (nearly) as efficiently as
  20379. possible.  The scientist will have to push his methods (i.e., codes)
  20380. whenever he acquires a new hot box.  This becomes especially necessary
  20381. when new breakthroughs appear, such as the parallel computers of today,
  20382. or the vector processors a decade ago (remember... ?).
  20383.  
  20384. I believe there is no excuse for ignoring the hardware you use for
  20385. scientific computing.  The scientist must always push ahead the
  20386. frontiers, and one way is to make the best use of the equipment put at
  20387. his disposal.  A corollary is that "black-box" usage of codes or
  20388. compilers in scientific computing will often be poor use of resources.
  20389. I think this is entirely different from commercial software, where
  20390. black-box usage and portability are important features.
  20391.  
  20392. Ole H. Nielsen
  20393. Department of Physics, Building 307
  20394. Technical University of Denmark, DK-2800 Lyngby, Denmark
  20395. E-mail: Ole.H.Nielsen@fysik.dth.dk
  20396. Telephone: (+45) 45 93 12 22 - 3187
  20397. Telefax:   (+45) 45 93 23 99
  20398. Approved: parallel@hubcap.clemson.edu
  20399. Follow-up: comp.parallel
  20400. Path: bounce-back
  20401. Newsgroups: comp.parallel
  20402. Date: Mon, 1 Nov 1993 09:31:20 GMT
  20403. From: I Flockhart <ianf@epcc.edinburgh.ac.uk>
  20404. Subject: Info on out of core parallel processing?
  20405. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  20406. Organization: Edinburgh Parallel Computing Centre
  20407.  
  20408. I'm currently looking into the parallelisation of global and/or
  20409. non-regular (3d) image processing operations, where the images concerned
  20410. do not fit into distributed core memory.  A typcial example might be the
  20411. Fourier transform. 
  20412.  
  20413. I'm interested in collecting references for any literature that may help
  20414. with this topic, and also to hear from anyone who has worked on similar
  20415. problems in the past. 
  20416.  
  20417. If you can assist with either a reference or the benefit of experience,
  20418. please email me directly at:
  20419.     ianf@epcc.ed.ac.uk
  20420.  
  20421. I'll collate any references I get and post them back to comp.parallel at
  20422. a later date.
  20423.  
  20424. Thanks
  20425.  
  20426. Ian
  20427.  
  20428.  ----------------------------------------------------------------------
  20429. |      e|p     Edinburgh Parallel Computing Centre                     |
  20430. |      c|c     University of Edinburgh                                 |
  20431.  ----------------------------------------------------------------------
  20432. Approved: parallel@hubcap.clemson.edu
  20433. Follow-up: comp.parallel
  20434. Path: bounce-back
  20435. Newsgroups: comp.parallel
  20436. Date: Tue, 02 Nov 1993 14:46:18 -0600 (MDT)
  20437. From: slhpv@cc.usu.edu
  20438. Subject: Compiler producing CDG and Def-Use chains
  20439. Message-ID: <1993Nov2.144539.3037@cc.usu.edu>
  20440. Organization: Utah State University
  20441.  
  20442. I am doing some research on parallelizing sequential code.  For this
  20443. work I need both the Control-Dependency Graph and Definition-Use chains
  20444. for the code.  Are their any compilers available which produce this
  20445. information for a subset of C, Fortran, or Pascal?
  20446.  
  20447. Any pointers appreciated.
  20448.  
  20449.     David Dunn
  20450.  
  20451.  
  20452. Approved: parallel@hubcap.clemson.edu
  20453. Follow-up: comp.parallel
  20454. Path: bounce-back
  20455. Newsgroups: comp.parallel
  20456. From: elm@cs.berkeley.edu (ethan miller)
  20457. Subject: Re: The Future of Parallel Computing
  20458. Date: 30 Oct 93 16:14:50
  20459. Organization: Berkeley--Shaken, not Stirred
  20460. References: <1993Oct14.131912.9126@hubcap.clemson.edu>
  20461.     <1993Oct19.154929.15823@hubcap.clemson.edu>
  20462.     <DMB.93Oct28093859@gorm.lanl.gov>
  20463. Reply-To: elm@cs.berkeley.edu
  20464. Nntp-Posting-Host: terrorism.cs.berkeley.edu
  20465. In-Reply-To: dmb@gorm.lanl.gov's message of Thu, 28 Oct 1993 18:05:21 GMT
  20466.  
  20467. >>>>> "David" == David M Beazley <dmb@gorm.lanl.gov> writes:
  20468. David> In my opinion, relying on the compiler to do everything for you
  20469. David> encourages lazy programming and contributes nothing to pushing
  20470. David> the performance limits of parallel computing hardware or
  20471. David> software.
  20472.  
  20473. This statement sounds remarkably like one that might have been made
  20474. around the time that Fortran was invented.  "How do you expect your
  20475. program to perform well if you let some compiler turn it into
  20476. assembly?  If you want to push the performance limits of your
  20477. hardware, you *have* to code in assembly."  These days, very few
  20478. people write assembly language for applications on sequential
  20479. computers.  Yes, they could probably make their program run faster if
  20480. they did.  However, the added effort isn't worth the relatively small
  20481. speedup.  The goal of compiling for parallel code should NOT
  20482. necessarily be "the best possible code;" it should be "reasonably
  20483. close to the best possible code."
  20484.  
  20485. ethan
  20486. --
  20487. +---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+
  20488. ethan miller--cs grad student   | "Why is it whatever we don't
  20489. elm@cs.berkeley.edu             |  understand is called a 'thing'?"
  20490. #include <std/disclaimer.h>     |  -- "Bones" McCoy
  20491. Approved: parallel@hubcap.clemson.edu
  20492. Follow-up: comp.parallel
  20493. Path: bounce-back
  20494. Newsgroups: comp.parallel
  20495. From: coats@cardinal.ncsc.org (Carlie Coats)
  20496. Subject: SGI parallel Fortran -- Help!
  20497. Reply-To: coats@mcnc.org
  20498. Organization: North Carolina Supercomputing Center
  20499.  
  20500. I have a reduction operation I'm trying to get to run in parallel under
  20501. SGI's Power Fortran (which offers loop-level data parallelism).  I've
  20502. tried several different (IMHO reasonable) variations, but the compiler
  20503. won't generate parallel output for them.  Can someonne help me?
  20504.  
  20505. The code looks like:
  20506.  
  20507.         ...
  20508.         PARAMETER( NCOLS=35, NROWS=32, NLEVS=6, DTMAX=900.0 )
  20509.         REAL    DT, DTT( NROWS, NCOLS, NLEVS )
  20510.         INTEGER R, C, L
  20511.         ...    !  compute array DTT.  Then:
  20512.         DT = DTMAX
  20513.         DO  33 R = 1, NROWS
  20514.         DO  22 C = 1, NCOLS
  20515.         DO  11 L = 1, NLEVS
  20516.             DT = MIN( DT, DTT( L,C,R )
  20517. 11      CONTINUE
  20518. 22      CONTINUE
  20519. 33      CONTINUE
  20520.         ...
  20521.  
  20522. For examle, the following variation looks *to* *me* as though it ought
  20523. to be legitimately parallelizable.  But the compiler insists in doing it
  20524. as scalar code, complaining about a data dependency in DT.  What gives??
  20525.  
  20526. Please email replies to  coats@mcnc.org.
  20527.  
  20528.         ...
  20529.         REAL  DTTT( NROWS )    !  used for the reduction.
  20530.         ...    !  compute array DTT.  Then:
  20531.         DO  33 R = 1, NROWS    ! *should* be parallel on R
  20532.             DTTT( R ) = DTMAX
  20533.             DO  22 C = 1, NCOLS
  20534.             DO  11 L = 1, NLEVS
  20535.                 DTTT( R ) = MIN( DTTT( R ), DTT( L,C,R ) )
  20536. 11          CONTINUE
  20537. 22          CONTINUE
  20538. 33      CONTINUE
  20539.         DT = DTTT( 1 )        !  now reduce over R:
  20540.         DO  33 R = 2, NROWS    !  this loop is scalar
  20541.             DT = MIN( DT, DTTT( R ) )
  20542. 33      CONTINUE
  20543.         ...
  20544.  
  20545. Thanks in advance.
  20546.  
  20547.  
  20548. Carlie J. Coats, Jr., Ph.D.                 phone (919)248-9241
  20549. MCNC Environmental Programs                 fax   (919)248-9245
  20550. 3021 Cornwallis Rd.                              coats@mcnc.org
  20551. RTP, NC  27709-2889                    xcc@epavax.rtpnc.epa.gov
  20552.  
  20553. "My opinions are my own, and I've got *lots* of them!"
  20554. Approved: parallel@hubcap.clemson.edu
  20555. Follow-up: comp.parallel
  20556. Path: bounce-back
  20557. Newsgroups: comp.parallel
  20558. From: stgprao@st.unocal.COM (Richard Ottolini)
  20559. Subject: Re: CS 6400
  20560. Message-ID: <1993Nov1.160439.1200@unocal.com>
  20561. Sender: news@unocal.com (Unocal USENET News)
  20562. Organization: Unocal Corporation
  20563. References: <1993Oct27.172532.20787@hubcap.clemson.edu>
  20564. Date: Mon, 1 Nov 1993 16:04:39 GMT
  20565.  
  20566. Even though this system offsers 16GB memory, does it have greater than
  20567. 32 bits software addressing?  Many (not all) of the "preview" talks
  20568. we've had are disappointing in this regard.  The default seems to be
  20569. a distributed memory model of 32 bits.  We could use 42 bits immediately
  20570. to describe our larger data files and have been suggesting 48 bit
  20571. global addressing.
  20572.  
  20573. Approved: parallel@hubcap.clemson.edu
  20574. Follow-up: comp.parallel
  20575. Path: bounce-back
  20576. Newsgroups: comp.parallel
  20577. From: sims@gehrig.ucr.edu (david sims)
  20578. Subject: Seeking refs on detecting race conditions at run time
  20579. Organization: University of California, Riverside   (College of Engineering/Computer Science)
  20580. Nntp-Posting-Host: gehrig.ucr.edu
  20581.  
  20582. hi all,
  20583.  
  20584. I'm looking for references for systems that detect race conditions at
  20585. run time.  I believe these systems are a debugging aid.  The parallel
  20586. programmer writes his program, and if a race condition occurs during
  20587. testing, these systems will detect it.
  20588.  
  20589. I know there's a large body of research in this area.  I just don't
  20590. know where to get started.
  20591.  
  20592. Thanks for any help/bibliographies/references.
  20593.  
  20594. --
  20595. David L. Sims                                Department of Computer Science
  20596. sims@cs.ucr.edu                              University of California
  20597. +1 (909) 787-6437                            Riverside CA  92521-0304
  20598. PGP encryption key available on request.     USA
  20599.  
  20600. Approved: parallel@hubcap.clemson.edu
  20601. Follow-up: comp.parallel
  20602. Path: bounce-back
  20603. Newsgroups: comp.parallel,comp.parallel.pvm,comp.theory,comp.org.ieee,info.theorynt
  20604. From: das@ponder.csci.unt.edu (Sajal Das)
  20605. Subject: Call for Papers
  20606. Sender: usenet@mercury.unt.edu (UNT USENet Adminstrator)
  20607. Organization: University of North Texas, Denton
  20608. Date: Mon, 1 Nov 1993 18:50:09 GMT
  20609. Apparently-To: hypercube@hubcap.clemson.edu
  20610.  
  20611.  
  20612.                          *******************
  20613.                          * CALL FOR PAPERS *
  20614.                          *******************
  20615.  
  20616.               JOURNAL OF COMPUTER & SOFTWARE ENGINEERING
  20617.              --------------------------------------------
  20618.            SPECIAL ISSUE on PARALLEL ALGORITHMS & ARCHITECTURES 
  20619.               (Tentative Publication Date: January 1995)
  20620.  
  20621.  
  20622. Due to fundamental physical limitations on processing speeds of
  20623. sequential computers, the future-generation high performance 
  20624. computing environment will eventually rely entirely on exploiting 
  20625. the inherent parallelism in problems and implementing their 
  20626. solutions on realistic parallel machines.  Just as the processing
  20627. speeds of chips are approaching their physical limits, the need 
  20628. for faster computations is increasing at an even faster rate. 
  20629. For example, ten years ago there was virtually no general-purpose 
  20630. parallel computer available commercially. Now there are several 
  20631. machines, some of which have received wide acceptance due to 
  20632. reasonable cost and attractive performance. The purpose of this 
  20633. special issue is to focus on the desgin and analysis of efficient 
  20634. parallel algorithms and their performance on different parallel 
  20635. architectures. We expect to have a good blend of theory and practice.
  20636. In addition to theoretical papers on parallel algorithms, case studies 
  20637. and experience reports on applications of these algorithms in real-life 
  20638. problems are especially welcome. Example topics include, but are not 
  20639. limited to, the following:
  20640.  
  20641.  
  20642. Parallel Algorithms and Applications. 
  20643. Machine Models and Architectures. 
  20644. Communication, Synchronization and Scheduling.  
  20645. Mapping Algorithms on Architectures.
  20646. Performance Evaluation of Multiprocessor Systems.  
  20647. Parallel Data Structures. 
  20648. Parallel Programming and Software Tools. 
  20649.  
  20650. ***********************************************************************
  20651. Please submit SEVEN copies of your manuscript to either of the        *
  20652. Guest Editors by May  1, 1994:                                        *
  20653.                                                                       *
  20654. ***********************************************************************
  20655. Professor Sajal K. Das           ||  Professor Pradip K. Srimani      *
  20656. Department of Computer Science   ||  Department of Computer Science   *
  20657. University of North Texas        ||  Colorado State University        *
  20658. Denton, TX 76203                 ||  Ft. Collins, CO 80523            *
  20659. Tel: (817) 565-4256, -2799 (fax) ||  Tel: (303) 491-7097, -6639 (fax) *
  20660. Email: das@cs.unt.edu            ||  Email: srimani@CS.ColoState.Edu  *
  20661. ***********************************************************************
  20662.  
  20663.  
  20664. INSTRUCTIONS FOR SUBMITTING PAPERS: 
  20665.  
  20666. Papers should be 20--30 double spaced pages including figures, tables 
  20667. and references. Papers should not have been previously published, nor 
  20668. currently submitted elsewhere for publication. Papers should include a 
  20669. title page containing title, authors' names and affiliations, postal and 
  20670. e-mail addresses, telephone numbers and Fax numbers. Papers should
  20671. include a 300-word abstract.
  20672.  
  20673. If you are willing to referee papers for this special issue, please send
  20674. a note with research interest to either of the guest editors. 
  20675.  
  20676.  
  20677.  
  20678. Approved: parallel@hubcap.clemson.edu
  20679. Follow-up: comp.parallel
  20680. Path: bounce-back
  20681. Newsgroups: comp.parallel
  20682. From: dowd@mangrove.eng.buffalo.edu (Patrick Dowd)
  20683. Subject: CFP - SIGCOMM'94
  20684. Keywords: CFP
  20685. Reply-To: dowd@eng.buffalo.edu (Patrick Dowd)
  20686. Organization: State University of New York at Buffalo
  20687. Posting-Software: pnews (version 1.4)
  20688. Date: Mon, 1 Nov 1993 20:30:22 GMT
  20689. Apparently-To: comp-parallel@cis.ohio-state.edu
  20690.  
  20691.  
  20692.  
  20693.  
  20694.                Call for Papers
  20695.               ACM SIGCOMM'94 CONFERENCE
  20696.        Communications Architectures, Protocols and Applications
  20697.                    
  20698.               University College London
  20699.                   London, UK
  20700.                    
  20701.             August 31 to September 2, 1994
  20702.          (Tutorials and Workshop, August 30)
  20703.                    
  20704.  
  20705.  
  20706. An  international forum  on  communication  network  applications  and
  20707. technologies, architectures, protocols, and algorithms.
  20708.  
  20709. Authors are invited to submit  full  papers concerned with both theory
  20710. and practice. The areas of interest include, but are not limited to:
  20711.  
  20712.    --  Analysis and  design  of  computer  network  architectures  and
  20713.        algorithms, 
  20714.    --  Innovative results in local area networks,
  20715.    --  Mixed-media networks,
  20716.    --  High-speed networks, routing and addressing, support for mobile
  20717.        hosts, 
  20718.    --  Resource sharing in distributed systems,
  20719.    --  Network management,
  20720.    --  Distributed operating systems and databases,
  20721.    --  Protocol specification, verification, and analysis.
  20722.  
  20723. A   single-track,   highly  selective   conference   where  successful
  20724. submissions   typically  report   results   firmly   substantiated  by
  20725. experiment, implementation, simulation, or mathematical analysis.
  20726.  
  20727. General Chair: Jon Crowcroft, University College London
  20728. Program Chairs: Stephen Pink, Swedish Institute of Computer Science
  20729.                 Craig Partridge, BBN
  20730. Publicity Chair: Patrick Dowd, State University of New York at Buffalo
  20731. Local Arrangements Chair: Soren-Aksel Sorensen, University College London
  20732.  
  20733. Papers must be less than 20 double-spaced pages long, have an abstract
  20734. of  100-150  words,  and  be  original  material  that  has  not  been
  20735. previously  published  or  be  currently  under  review  with  another
  20736. conference or journal.
  20737.  
  20738. In addition to its high  quality technical  program, SIGCOMM '94  will
  20739. offer  tutorials by  noted  instructors  such  as  Paul  Green and Van
  20740. Jacobson (tentative), and a workshop  on  distributed systems  led  by
  20741. Derek McAuley.
  20742.  
  20743. Important Dates:
  20744.  
  20745.     Paper submissions: 1 February 1994
  20746.     Tutorial proposals: 1 March 1994
  20747.     Notification of acceptance: 2 May 1994
  20748.     Camera ready papers due: 9 June 1994
  20749.  
  20750. All  submitted papers will  be  judged  based  on  their  quality  and
  20751. relevance through double-blind reviewing where  the  identities of the
  20752. authors are  withheld from  the  reviewers.  Authors names should  not
  20753. appear on the paper.  A cover letter  is  required that identifies the
  20754. paper title and lists the name, affiliation, telephone  number, email,
  20755. and fax number of all authors.
  20756.  
  20757. Authors of accepted papers need to sign an ACM copyright release form.
  20758. The  Proceedings will  be published as a  special issue of ACM SIGCOMM
  20759. Computer Communication  Review. The program committee will also select
  20760. a few papers for possible publication in the IEEE/ACM  Transactions on
  20761. Networking.
  20762.  
  20763. Submissions from North America should be sent  to:
  20764.      Craig Partridge
  20765.      BBN
  20766.      10 Moulton St
  20767.      Cambridge MA 02138
  20768.  
  20769. All  other submissions  should  be sent to:
  20770.      Stephen Pink
  20771.      Swedish Institute of Computer Science
  20772.      Box 1263
  20773.      S-164 28 Kista
  20774.      Sweden
  20775.  
  20776. Five copies are required for paper submissions. Electronic submissions
  20777. (uuencoded,  compressed  postscript) should be sent  to  each  program
  20778. chair. Authors should also e-mail the title, author names and abstract
  20779. of their  paper  to  each  program  chair  and  identify  any  special
  20780. equipment that will be required  during its  presentation. Due to  the
  20781. high number  of  anticipated  submissions,  authors are  encouraged to
  20782. strictly  adhere  to the  submission  date.  Contact  Patrick  Dowd at
  20783. dowd@eng.buffalo.edu or +1 716 645-2406 for more information about the
  20784. conference.
  20785.  
  20786. Student  Paper Award:  Papers  submitted  by  students  will  enter  a
  20787. student-paper award contest.  Among the  accepted papers, a maximum of
  20788. four outstanding  papers  will be awarded full conference registration
  20789. and  a travel grant of $500  US dollars.   To  be eligible the student
  20790. must be the  sole author, or the first author and primary contributor.
  20791. A  cover  letter  must  identify  the  paper as  a candidate  for this
  20792. competition.
  20793.  
  20794.  
  20795. Mail and E-mail Addresses:
  20796.  
  20797.     General Chair
  20798.  
  20799.     Jon Crowcroft
  20800.     Department of Computer Science
  20801.     University College London
  20802.     London WC1E 6BT United Kingdom
  20803.  
  20804.     Phone: +44 71 380 7296
  20805.     Fax: +44 71 387 1397
  20806.     E-Mail: J.Crowcroft@cs.ucl.ac.uk
  20807.  
  20808.  
  20809.     Program Chairs
  20810.  
  20811.     Stephen Pink (Program Chair)
  20812.     Swedish Institute of Computer Science
  20813.     Box 1263
  20814.     S-164 28 Kista
  20815.     Sweden
  20816.  
  20817.     Phone: +46 8 752 1559
  20818.     Fax: +46 8 751 7230
  20819.     E-mail: steve@sics.se
  20820.  
  20821.     Craig Partridge (Program Co-Chair for North America)
  20822.     BBN
  20823.     10 Moulton St
  20824.     Cambridge MA 02138
  20825.  
  20826.     Phone: +1 415 326 4541
  20827.     E-mail: craig@bbn.com
  20828.  
  20829.  
  20830.     Publicity Chair
  20831.  
  20832.     Patrick Dowd
  20833.     Department of Electrical and Computer Engineering
  20834.     State University of New York at Buffalo
  20835.     201 Bell Hall
  20836.     Buffalo, NY 14260-2050
  20837.  
  20838.     Phone: +1 716 645 2406
  20839.     Fax: +1 716 645 3656
  20840.     E-mail: dowd@eng.buffalo.edu
  20841.  
  20842.  
  20843.     Local Arrangements Chair
  20844.  
  20845.     Soren-Aksel Sorensen
  20846.     Department of Computer Science
  20847.     University College London
  20848.     London WC1E 6BT United Kingdom
  20849.  
  20850.  
  20851. Approved: parallel@hubcap.clemson.edu
  20852. Follow-up: comp.parallel
  20853. Path: bounce-back
  20854. Newsgroups: comp.parallel
  20855. From: hains@iro.umontreal.ca (Gaetan Hains)
  20856. Subject: professeur a Montreal
  20857. Sender: news@iro.umontreal.ca
  20858. Organization: Universite de Montreal, Canada
  20859. Date: Sun, 31 Oct 1993 15:26:05 GMT
  20860. Apparently-To: uunet!comp-parallel
  20861.  
  20862. Mon de'partement recherche des candidats pour un poste de professeur en 
  20863. informatique.  Les candidats spe'cialise's en paralle'lisme sont prie's
  20864. de me contacter tre`s rapidement.
  20865.  
  20866. Gae'tan Hains   De'partement d'informatique et de recherche ope'rationnelle
  20867. Universite' de Montre'al, C.P.6128 succursale A, Montre'al, Que'bec H3C 3J7
  20868. Tel. +1 514 343-5747   |   Fax. +1 514 343-5834   |  hains@iro.umontreal.ca
  20869.  
  20870.  
  20871. ------
  20872.  
  20873.  
  20874.       Departement d'informatique et de recherche operationnelle
  20875.                                    
  20876.                           Priere d'afficher
  20877.                                    
  20878.                         Universite de Montreal
  20879.  
  20880.                              Informatique
  20881.                                   et
  20882.                        Recherche operationnelle
  20883.  
  20884. Le Departement d'informatique et de recherche operationnelle (DIRO)
  20885. sollicite des candidatures pour un poste de professeur en informatique
  20886. et un poste de professeur en recherche operationnelle.  Du cote
  20887. informatique, les domaines d'expertise sont le genie logiciel ou le
  20888. parallelisme.  Du cote recherche operationnelle, le domaine
  20889. d'expertise privilegie est l'etude des aspects stochastiques de la
  20890. recherche operationnelle, par exemple: modeles stochastiques,
  20891. simulation et optimisation stochastique.
  20892.  
  20893. Le DIRO offre des programmes de B.Sc., M.Sc. et Ph.D. en informatique
  20894. et recherche operationnelle ainsi qu'un B.Sc. specialise
  20895. bidisciplinaire en mathematiques-informatique.  Le DIRO compte 40
  20896. professeurs, dont 9 sont en recherche operationnelle.
  20897.  
  20898. L'Universite de Montreal est la plus grande universite francophone en
  20899. Amerique.  Le DIRO possede des laboratoires de recherche specialises
  20900. supportes par un reseau integre de 4 serveurs departementaux, de 6
  20901. serveurs de laboratoire, de 90 stations Unix (DEC-Alpha, SPARC,
  20902. Silicon Graphics), et de micros (IBM PC, Macintosh).  Les Services
  20903. Informatiques de l'Universite donnent acces a un reseau de 60
  20904. X-Terminaux et 33 stations IRIS-Indigo pour l'enseignement de premier
  20905. cycle ainsi qu'a 6 super-minis Silicon Graphics pour le calcul
  20906. intensif.  Tous ces reseaux donnent acces a l'Internet.
  20907.  
  20908. Fonctions:            Enseignement aux trois cycles; recherche;
  20909.                 direction d'etudiants aux cycles superieurs.
  20910.  
  20911. Exigences:            Doctorat en informatique, recherche 
  20912.                 operationnelle ou dans un domaine connexe.
  20913.  
  20914. Traitement:            Selon les competences et la convention 
  20915.                                 collective.
  20916.  
  20917. Entree en fonction:    Le 1er juin 1994.
  20918.  
  20919. Les personnes interessees doivent faire parvenir leur curriculum
  20920. vitae, le nom de trois repondants et au maximum trois tires a part, au
  20921. plus tard le 30 novembre 1993 a:
  20922.  
  20923. Guy Lapalme
  20924. Directeur
  20925. Departement d'informatique et de recherche operationnelle
  20926. Universite de Montreal
  20927. C.P. 6128, Succ. A
  20928. Montreal (Quebec)
  20929. H3C 3J7
  20930.  
  20931. Telephone:    (514) 343-7090
  20932. Telecopieur:    (514) 343-5834
  20933. e-mail:    lapalme@iro.umontreal.ca
  20934.                     
  20935. Conformement aux exigences prescrites en matiere d'immigration
  20936. au Canada, cette annonce s'adresse, en priorite, aux citoyens
  20937. canadiens et aux residents permanents.
  20938. -- 
  20939.  
  20940. Gae'tan Hains   De'partement d'informatique et de recherche ope'rationnelle
  20941. Universite' de Montre'al, C.P.6128 succursale A, Montre'al, Que'bec H3C 3J7
  20942. Tel. +1 514 343-5747   |   Fax. +1 514 343-5834   |  hains@iro.umontreal.ca
  20943.  
  20944. Approved: parallel@hubcap.clemson.edu
  20945. Newsgroups: comp.parallel
  20946. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  20947. Subject: Voting on Newsgroups.
  20948.  
  20949.  
  20950. I say again, I cannot be the acceptor of your votes. There are rules for
  20951. forming new newsgroups which require a different method (So I can't stuff
  20952. the ballot box).
  20953.  
  20954. Contact the author directly.
  20955.  
  20956. =========================== MODERATOR ==============================
  20957. Steve Stevenson                            fpst@hubcap.clemson.edu
  20958. Administrative address                     steve@hubcap.clemson.edu
  20959. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  20960. Wanted: Sterbetz, P. Floating Point Computation
  20961. Approved: parallel@hubcap.clemson.edu
  20962. Follow-up: comp.parallel
  20963. Path: bounce-back
  20964. Newsgroups: comp.parallel
  20965. From: eugene@nas.nasa.gov (Eugene N. Miya)
  20966. Subject: Biblio update
  20967.  
  20968. Trick or treat.
  20969. Treat.  I updated the biblio (in the current temporary location) before
  20970. going on vacation.
  20971. Approved: parallel@hubcap.clemson.edu
  20972. Follow-up: comp.parallel
  20973. Path: bounce-back
  20974. Newsgroups: comp.parallel
  20975. From: Bodo.Parady@Eng.Sun.COM (Bodo Parady - SMCC Systems Performance)
  20976. Subject: The PAR93 SMP Benchmark
  20977.  
  20978. Charter:
  20979.  
  20980.  
  20981.      PAR93 -- is a benchmark suite designed to measure cache based RISC
  20982.         SMP system performance using well behaved codes 
  20983.         that parallelize automatically.  While no one benchmark can 
  20984.         fully characterize performance,  it is hoped the results of a 
  20985.         variety of realistic benchmarks can give valuable insight 
  20986.         into expected real performance.
  20987.  
  20988. PAR93 and its use in the performance analysis of SMPs will be discussed at:
  20989.  
  20990.         Supercomputing 93
  20991.         Room A-107, Portland Convention Center
  20992.         4:30-6:30  
  20993.         Tuesday, November 16, 1993
  20994.         1.800.go2.sc93 (1.800.462.7293)
  20995.  
  20996. Papers will be delivered by Mike Humphrey of SGI, Vinod Grover of Sun, Bodo
  20997. Parady of Sun, and Bruce Leasure of Kuck and Associates.  This will be
  20998. followed by a panel discussion which, in addition to the presenters, 
  20999. includes Forrest Baskett of SGI, and John Hennessey of Stanford.
  21000.  
  21001.     Focus --
  21002.          This suite is for users of small to medium 
  21003.          (<64 cpus) symmetric multiprocessing systems who wish
  21004.         to compare the performance of various systems, but who
  21005.          do not wish to change source code to attain parallel
  21006.          speedups.  As such, the benchmarks allow for
  21007.          no tuning of the code beyond the base, and no addition 
  21008.          of compiler directives.
  21009.  
  21010.          It is assumed that code tuning through source code
  21011.          changes and the addition of compiler directives can 
  21012.          attain greater speedups, but this is not the scope of 
  21013.          this benchmark.  Neither are distributed memory, vector 
  21014.          architectures, nor massively parallel systems within the 
  21015.          goals of this benchmark, although nothing in the suite
  21016.          prevents any system architecture from being used;
  21017.          other architectures are encouraged to run this benchmark.
  21018.         Vector and MP vector architectures may find that this suite
  21019.         offers an excellent method to evaluate the performance of
  21020.         their systems and are heartily encouraged to run this
  21021.         suite.
  21022.  
  21023.  
  21024.          This suite is intended to characterize the subset 
  21025.          of applications for which compilers can parallelize 
  21026.          automatically (compilation without the use of directives). 
  21027.         As such this suite offers examples of 
  21028.          parallelizable  code and an indication  of the 
  21029.          speedups attainable from compilers on some applications.
  21030.          This benchmark offers users, system designers and 
  21031.          compiler writers a method to compare their products
  21032.          on a completely level playing field, with no parallel
  21033.          programming paradigm favored.
  21034.  
  21035.         PAR93 is based on codes from SPEC CFP92, Perfect Club,
  21036.         NASA Ames, ARCO,  We gratefully acknowledge the pioneering
  21037.         work by David Bailey, George Cybenko, Dave Schneider, and
  21038.         Wolgang Gentzsch, among others, and solicit their guidance 
  21039.         in continued evolution of the suite.
  21040.  
  21041.  
  21042.  
  21043. Q:    What equipment do I need to run PAR93?
  21044.  
  21045. A:    Here is a minimum configuration:
  21046.  
  21047.         320 MB Main Memory
  21048.         500 MB Swap disk
  21049.         1 processor
  21050.         An OS
  21051.         A Fortran compiler
  21052.  
  21053.     Here is a suggested configuration:
  21054.  
  21055.         500 MB Main Memory
  21056.         1 GB swap disk
  21057.         2 processors
  21058.         An OS capable of serving multiple OS's (eg. Unix)
  21059.         An MP Fortran compiler
  21060.  
  21061.  
  21062. Q:    Why is it named PAR93 and not SPECpar93?
  21063.  
  21064. A:    It has not been approved by SPEC.   PAR93 has been submitted to
  21065.     SPEC for further development.  Before release from SPEC it will
  21066.     undergo a rigorous approval process to ensure it is truly portable,
  21067.     and provides a level playing field for comparison of certain types
  21068.     of systems.  It could become SPECpar94.
  21069.  
  21070. Q:    Will PAR93 indicate the performance of SPECpar94?
  21071.  
  21072. A:    Not necessarily.  During the SPEC development process, benchmarks
  21073.     may be added, dropped, or modified.
  21074.  
  21075. Q:    I have strong opinions on what benchmarks ought to be added
  21076.     (dropped, or modified).  How can I influence the process?
  21077.  
  21078. A:    Get involved.  Bring your ideas, your data and analysis, your
  21079.     time and energy to SPEC.  Consider joining SPEC.  Write to the
  21080.     following address for more information:
  21081.  
  21082.         SPEC [Systems Performance Evaluation Corporation]
  21083.         c/o NCGA [National Computer Graphics Association]
  21084.         2722 Merrilee Drive
  21085.         Suite 200
  21086.         Fairfax, VA 22031
  21087.         USA
  21088.  
  21089.         Phone:  +1-703-698-9600 Ext. 318
  21090.         FAX:    +1-703-560-2752
  21091.         E-Mail: spec-ncga@cup.portal.com
  21092.  
  21093.     For technical questions regarding the SPEC benchmarks (e.g., problems
  21094.     with execution of the benchmarks), Dianne Dean (she is the person
  21095.     normally handling SPEC matters at NCGA) refers the caller to an
  21096.     expert at a SPEC member company.
  21097.  
  21098.  
  21099. Q:    What are the run rules:
  21100.  
  21101. A:    The run rules are identical to the SPEC run rules, that is to
  21102.     say:
  21103.  
  21104.         .    No code changes, except for portability
  21105.  
  21106.         .    No compiler directives
  21107.  
  21108.         .    No benchmark specific optimizations
  21109.  
  21110.     All but the last are easy to enforce and understand.
  21111.  
  21112. Q:    Why are compiler directives not allowed, since with my parallel
  21113.     system, the addition of one directive would improve 
  21114.     performance of typical user codes by a great deal, and it
  21115.     only takes a couple of minutes to put in the directives, and
  21116.     everyone does it.
  21117.  
  21118. A:    All of this may be true, but PAR93 has been constructed with
  21119.     with the goal of measuring parallel system performance,
  21120.     where a system includes the cpu, cache, memory system, OS, 
  21121.     and compiler.  The goal is measurement of system performance
  21122.     using codes that parallelize automatically.
  21123.  
  21124.     Many codes that parallelize well have been excluded for PAR93
  21125.     because in order to parallelize well, they require the
  21126.     intervention of the programmer.  Due to the availability of
  21127.     many codes that present day compilers can parallelize, the
  21128.     run rules were restricted to those that compilers can deal with.
  21129.     This eliminates human factors in the comparison of various
  21130.     systems.  Most users will find that the codes provided 
  21131.     demonstrate excellent speedups on their SMP system.  From
  21132.     this he might be able to infer a little about what he
  21133.     can do by tuning.
  21134.  
  21135.     Barring compiler directives levels the playing field, since
  21136.     no directive format is favored and no types of directives
  21137.     are favored.  It also spares performance engineers the
  21138.     the career agony of constantly tuning benchmarks.  There
  21139.     have been other benchmarks that try to deal with user tuning
  21140.     like Perfect, and others that try to measure unrestricted CPU
  21141.     performance like the TPP linpack, but  PAR93 is
  21142.     a benchmark that measuress the compiler, and OS in addition
  21143.     to the effects of the hardware.
  21144.  
  21145. Q:    Is automatic parallelization mature enough to be the basis
  21146.     of a benchmark suite?
  21147.  
  21148. A:    Automatic parallelization has been commercially available since 
  21149.     1986 on Sequent, and possibly earlier on Alliant machines 
  21150.     (their first machine shipped with automatic parallization), and
  21151.     on multi-processor Cray machines (in the late 1980's).  Now, 
  21152.     there are lots of commercial automatic parallelizers with
  21153.     David Kuck and his group at UICU being on of the leading
  21154.     academic organizations researching automatic parallelization.
  21155.  
  21156.  
  21157. Q:      What application areas are addressed in PAR93?
  21158.  
  21159. A:      The following areas are addressed:
  21160.  
  21161.                 101.tomcatv     2d mesh generation.  This program
  21162.                                 is the author's modernized version(1991)
  21163.                                 compared to the SPECfp92 version (1987) of
  21164.                                 the original tomcatv.  It is also
  21165.                                 scaled up in size.
  21166.  
  21167.                 102.swim        The original SPEC program to compare
  21168.                                 performance of shallow water equations
  21169.                                 by Swartztrauber and Sato ahs been scaled
  21170.                                 up to arrays of 513x513 from 256x256.
  21171.  
  21172.                 103.su2cor      The same quantum physics program
  21173.                                 using Monte-Carlo methods from Prof. Bunk
  21174.                                 that is found in SPECfp92.
  21175.  
  21176.                 104.hydro2d     The same SPECfp92 program that solves
  21177.                                 the astrophysical Navier-Stokes
  21178.                                 equations.  The problem is scaled up from
  21179.                                 102x102 to 127x127.
  21180.  
  21181.                 105.tfft        David Bailey's NASA FFT set.  The
  21182.                                 FFT length is 4M elements.
  21183.  
  21184.                 106.fdmod       Siamak Hassanzadeh's 2d finite difference
  21185.                                 scheme for 3d seismic wave propagation.
  21186.                                 This is part of the original ARCO
  21187.                                 Benchmark Suite.  It was selected
  21188.                                 because this portion of seismic data
  21189.                                 processing consume over 80% of the
  21190.                                 computer cycles.
  21191.  
  21192.                 107.mgrid       Eric Barszcz and Paul Fredrickson's
  21193.                                 multigrid solver from NASA Ames.
  21194.  
  21195.                 109.appbt       Sisira Weeratunga's block ADI solver
  21196.                                 for nonlinear PDE's from NASA Ames, using
  21197.                                 block tridiagonal solvers.
  21198.  
  21199.                 111.appsp       Sisira Weeratunga's block ADI solver
  21200.                                 for nonlinear PDE's from NASA Ames
  21201.                                 based on the solution of penta-
  21202.                                 diagonal systems of equations.
  21203.  
  21204.                 113.ora         An update of the original SPEC 048.ora
  21205.                                 to prevent constant propagation by
  21206.                                 reading input.  The problem size
  21207.                                 has been updated.  ora is a ray
  21208.                                 tracing program.
  21209.  
  21210.                 117.nump        Portions of Peter Montgomery's
  21211.                                 number theory program that
  21212.                                 parallelize.
  21213.  
  21214.  
  21215.  
  21216.  
  21217. Q:    I want to use profiling tools and beautiful GUI's to 
  21218.     assist in parallization.  Why does this suite not
  21219.     encourage their use and allow me to demonstrate them?
  21220.  
  21221. A:    On the contrary, this suite will get the attention of 
  21222.     parallel computer vendors, and every GUI and tool will be
  21223.     applied to get better compilers out.  Some users like GUIs
  21224.     and tools, but a greater majority prefer compilers.
  21225.  
  21226.     Furthermore, there could be future evolutions of PAR93
  21227.     that address the more advanced issues of parallelization.
  21228.  
  21229. Q:    What is the reporting methodology?
  21230.  
  21231. A:    The principal is to report both raw performance and scaling
  21232.     of MP systems.  To the first level, one configuration
  21233.     must be reported, for example the run times for 8 cpus
  21234.     applied to the PAR93 suite could be reported.  To a second
  21235.     level, all of the performance for 1,2,4, and 8 ( or any sequence
  21236.     of cpus, with up to 5 configurations in a single report) can be 
  21237.     reported.  Scaling with the number of processors is displayed, but 
  21238.     as with the present SPEC benchmark, the single figure of merit
  21239.     is the ratio to a reference system, in this case a Sun 
  21240.     SPARCstation 10 Model 41 with 40 MHz SuperSPARC and 1MB external
  21241.     cache.
  21242.  
  21243.     The baseline uniprocessor values for the suite are:
  21244.  
  21245.         Benchmark        Seconds
  21246.  
  21247.         101.tomcatv        1171.5
  21248.         102.swim        1220.6
  21249.         103.su2cor         161.5
  21250.         104.hydro2d         990.5
  21251.         105.tfft        2628.4
  21252.         106.fdmod         929.2
  21253.         107.mgrid         630.6
  21254.         109.appbt        2424.4
  21255.         111.appsp        2476.2
  21256.         113.ora             832.0
  21257.         117.nump        1005.1
  21258.  
  21259.     This takes less than 4 hours to run on a single cpu 40.33MHz
  21260.     SS10/41.
  21261.         
  21262. Q:    Some of the benchmarks are not full applications.  Why not
  21263.     substitute full applications for these abstractions?
  21264.  
  21265. A:    Some, like SWIM, are abstractions from full programs, but
  21266.     issues of availability, code size, and test cases
  21267.     have prevented SPEC from using full applications in
  21268.     all cases.  These same limitations apply to the PAR93 suite.
  21269.     As this suite matures, and SPEC members have their input
  21270.     and are able to contribute more to this suite, more
  21271.     full applications are expected.
  21272.  
  21273. Q:    Some codes like tomcatv, represent 2D problems when in
  21274.     reality, 3D mesh generation and 3d Fluid problems are
  21275.     more realistic.  Why not use more modern programs.
  21276.  
  21277. A:    There is an effort to port a 3d mesh generator, but this
  21278.     will take time given its huge size.  When complete, this could add to
  21279.     the quality of the suite.  Consumers of PAR93 realize
  21280.     that this is the first generation, and that future 
  21281.     generations aim to  attain much higher levels of quality.
  21282.  
  21283. Q:    What about the duplication of similar numerical techniques
  21284.     such at swim and fdmod using explicit finite differences?
  21285.  
  21286. A:    Even though swim and fdmod have similar methods, they
  21287.     represent different application areas, and the methods
  21288.     and program setup are quite different.
  21289.  
  21290.     Compare this for example to SPECfp92 where mdljsp2 and
  21291.     mdljdp2 are simply the same program, but one is 
  21292.     single precision and the other is double precision.
  21293.  
  21294.     The comparison of results from the two similar programs
  21295.     can provide insights not otherwise available.
  21296.  
  21297.  
  21298. Q:    Why not report two numbers for this suite?  One obtained
  21299.     by autoparallelization and the other obtained by hand
  21300.     parallelization or the addition of directives?
  21301.  
  21302. A:    This is similar to the reporting rules of PERFECT and
  21303.     some of the PARKBENCH suite.  The purpose here has
  21304.     been stated above.  Reporting results in this manner
  21305.     could be a possible rule  for a future suite.
  21306.  
  21307. Q:    What about adding codes that have subroutine and loop
  21308.     level parallelism that encourage the use of directives
  21309.     and having various granularities?
  21310.  
  21311. A:    This is a good suggestion for a future suite.
  21312.  
  21313.  
  21314.     
  21315. Please direct responses to:
  21316.  
  21317.     Bodo Parady
  21318.     Michael Humphrey    mikehu@sgi.com        415.390.1936
  21319.  
  21320.  
  21321. Bodo Parady                   | (415) 336-0388
  21322. SMCC, Sun Microsystems        | Bodo.Parady@eng.sun.com
  21323. Mail Stop MTV15-404           | Domain:  bodo@cumbria.eng.sun.com
  21324. 2550 Garcia Ave.              | Alt:     na.parady@na-net.ornl.gov
  21325. Mountain View, CA  94043-1100 | FAX:     (415) 336-4636
  21326.  
  21327.  
  21328.  
  21329. ----- End Included Message -----
  21330.  
  21331.  
  21332. Approved: parallel@hubcap.clemson.edu
  21333. Follow-up: comp.parallel
  21334. Path: bounce-back
  21335. Newsgroups: comp.parallel
  21336. From: kerry@totara.cs.waikato.ac.nz (Kerry Guise)
  21337. Subject: barrier synchronisation
  21338.  
  21339. My first posting appears to have disappeared into the hypernet so try  
  21340. again ...
  21341. I'm looking for some information, perhaps published papers, on the  
  21342. implementation of the barrier synchronisation mechanism in KSR's  
  21343. extensions to the pthreads library ( I think others may have implemented  
  21344. barrier synchronisation as well ; is this now part of the POSIX 1003.4a  
  21345. draft ?). Any pointers appreciated.
  21346.  
  21347.     With thanks,
  21348.         Kerry Guise
  21349.  
  21350. Approved: parallel@hubcap.clemson.edu
  21351. Follow-up: comp.parallel
  21352. Path: bounce-back
  21353. Newsgroups: comp.parallel
  21354. Date: Wed, 3 Nov 93 11:30:58 CST
  21355. From: mwitten@chpc.utexas.edu
  21356. Subject: URGENT: DEADLINE CHANGE FOR WORLD CONGRESS 
  21357.  
  21358.            UPDATE ON DEADLINES
  21359. FIRST WORLD CONGRESS ON COMPUTATIONAL MEDICINE, PUBLIC
  21360.          HEALTH, AND BIOTECHNOLOGY
  21361.             24-28 April 1994
  21362.                    Hyatt Regency Hotel
  21363.                      Austin, Texas
  21364. ----- (Feel Free To Cross Post This Announcement) ----
  21365.  
  21366. Due to a confusion in the electronic distribution of
  21367. the congress announcement and deadlines, as well as 
  21368. incorrect deadlines appearing in a number of society
  21369. newsletters and journals, we are extending the abstract
  21370. submission deadline for this congress to 31 December 1993.
  21371. We apologize to those who were confused over the differing
  21372. deadline announcements and hope that this change will
  21373. allow everyone to participate. For congress details:
  21374.  
  21375. To contact the congress organizers for any reason use any of the
  21376. following pathways:
  21377.  
  21378. ELECTRONIC MAIL - compmed94@chpc.utexas.edu
  21379.  
  21380. FAX (USA)       - (512) 471-2445
  21381.  
  21382. PHONE (USA)     - (512) 471-2472
  21383.  
  21384. GOPHER: log into the University of Texas System-CHPC
  21385. select the Computational Medicine and Allied Health
  21386. menu choice
  21387.  
  21388. ANONYMOUS FTP: ftp.chpc.utexas.edu
  21389.          cd /pub/compmed94
  21390.     (all documents and forms are stored here)
  21391.  
  21392. POSTAL:
  21393.             Compmed 1994
  21394.       University of Texas System CHPC
  21395.             Balcones Research Center
  21396.             10100 Burnet Road, 1.154CMS
  21397.             Austin, Texas 78758-4497
  21398.  
  21399. SUBMISSION PROCEDURES: Authors must submit 5
  21400. copies of a single-page 50-100 word abstract clearly
  21401. discussing the topic of their presentation. In
  21402. addition, authors must clearly state their choice of
  21403. poster, contributed paper, tutorial, exhibit, focused
  21404. workshop or birds of a feather group along with a
  21405. discussion of their presentation. Abstracts will be
  21406. published as part of the preliminary conference
  21407. material. To notify the congress organizing committee
  21408. that you would like to participate and to be put on
  21409. the congress mailing list, please fill out and return
  21410. the form that follows this announcement.  You may use
  21411. any of the contact methods above. If you wish to
  21412. organize a contributed paper session, tutorial
  21413. session, focused workshop, or birds of a feather
  21414. group, please contact the conference director at
  21415. mwitten@chpc.utexas.edu . The abstract may be submitted
  21416. electronically to  compmed94@chpc.utexas.edu  or
  21417. by mail or fax. There is no official format.
  21418.  
  21419.  
  21420. If you need further details, please contact me.
  21421.  
  21422. Matthew Witten
  21423. Congress Chair
  21424. mwitten@chpc.utexas.edu
  21425.  
  21426. Approved: parallel@hubcap.clemson.edu
  21427. Follow-up: comp.parallel
  21428. Path: bounce-back
  21429. Newsgroups: comp.parallel
  21430. From: edwin sha <esha@kant.helios.nd.edu>
  21431. Subject: CFP: Great Lakes Symposium on VLSI
  21432. Sender: USENET News System <news%news@uunet.UU.NET>
  21433. Organization: University of Notre Dame, Notre Dame
  21434.  
  21435.  
  21436.                              ***************
  21437.                              CALL FOR PAPERS
  21438.                              ***************
  21439.  
  21440.                     FOURTH GREAT LAKES SYMPOSIUM ON VLSI
  21441.                 (March 4-5, 1994, Notre Dame, Indiana, U.S.A)
  21442.  
  21443. SPONSORED/SUPPORTED BY:                      
  21444.  
  21445. IEEE Circuits & Systems Society
  21446. IEEE Computer Society
  21447. ACM SIGDA
  21448. Department of Computer Science and Engineering, Univ. of Notre Dame 
  21449.  
  21450. We invite papers presenting original, unpublished and state-of-the-art
  21451. research manuscripts in all aspects of VLSI Systems. 
  21452. The topics may include, but are not limited to :
  21453.  
  21454.       1. Place and Route          6. Multichip Modules (MCMs)
  21455.  
  21456.       2. Testability/BIST         7. Application-Specific Design
  21457.  
  21458.       3. Synthesis/Verification   8. Analog & Mixed-Signal IC's
  21459.  
  21460.       4. Field Programmable       9. Graph Theory Application
  21461.          Gate Arrays (FPGAs)         to VLSI
  21462.  
  21463.       5. Highly Parallel Arch.    10. Handcrafted Chips
  21464.  
  21465. Submitted manuscripts should clearly state their contribution to the 
  21466. state-of-the-art.  Both theoretical and experimental research results
  21467. will be considered.  A published proceedings will be available at the
  21468. symposium.
  21469.  
  21470. A special registration fee for students is planned. Student researchers
  21471. are welcome to submit their work for review as regular papers.
  21472. Also, a special student session is planned at this year's Symposium.
  21473. Manuscripts for this special student session will not appear in the 
  21474. Symposium proceedings.  However, these articles will be reviewed for
  21475. topic suitability only.
  21476.  
  21477. TECHNICAL PROGRAM:
  21478.  
  21479. The technical program consists of regular and short presentations of papers
  21480. and student poster sessions for two days. The symposium will start with a 
  21481. invited talk about the design experiences of the PowerPC project. 
  21482.  
  21483. SUBMISSIONS MUST INCLUDE:
  21484.  
  21485. 1. Title of the paper.
  21486. 2. Category 1-10 from the above.
  21487. 3. Four copies of Extended abstract (about 1500 words )
  21488. 4. A 50-word abstract.
  21489. 5. A cover page/letter stating all authors' names, addresses, office
  21490.    and FAX numbers, e-mail addresses and affiliations.
  21491.    One author must be designated as a contact for all future correspondence.
  21492.    Author names and affiliations must appear on this cover page ONLY.
  21493.  
  21494.  
  21495. IMPORTANT DEADLINES:
  21496.  
  21497. Submissions Due         : November 10, 1993.
  21498.  
  21499. Acceptance Notification : December 15, 1993.
  21500.  
  21501. Camera-ready Paper Due  : January  15, 1994.
  21502.  
  21503. SEND PAPERS TO:
  21504.  
  21505. Edwin Sha 
  21506. GLS-VLSI 94
  21507. Dept. of Computer Science and Engineering
  21508. University of Notre Dame
  21509. Notre Dame, IN 46556
  21510.  
  21511.  
  21512. For further information contact:
  21513.  
  21514. Phone:   (219)-631-8803.
  21515. Fax:     (219)-631-8007.
  21516. Email:   glsvlsi@cse.nd.edu
  21517.  
  21518.  
  21519. TECHNICAL PROGRAM COMMITTEE:
  21520.  
  21521. Co-Chairs:
  21522.  
  21523. Edwin H.-M. Sha, University of Notre Dame
  21524. Naveed Sherwani, Western Michigan University
  21525.  
  21526. Members:
  21527.  
  21528. Jacob Abraham                               
  21529. University of Texas-Austin.                
  21530.  
  21531. Paul Ainslie
  21532. Delco Electronics
  21533.  
  21534. Jason Cong
  21535. UCLA
  21536.  
  21537. Randall Geiger
  21538. Iowa State University
  21539.  
  21540. Dwight Hill
  21541. Synopsys
  21542.  
  21543. S. Y. Kung
  21544. Princeton University
  21545.  
  21546. Kevyn Salsburg
  21547. IBM
  21548.  
  21549. D.F. Wong
  21550. University of Texas-Austin
  21551.  
  21552. ORGANIZING COMMITTEE
  21553.  
  21554. Chair: John Uhran, Jr., CSE, Notre Dame
  21555. Publicity: Steve Bass, CSE, Notre Dame
  21556.  
  21557. INDUSTRIAL LIASONS
  21558.  
  21559. Jeff Banker, ERIM
  21560. Gerald Michael, Indiana Microelectronics
  21561. Kenneth Wan, AMD, Inc.
  21562.  
  21563.                         *****************
  21564.                         *****************
  21565.  
  21566.  
  21567.  
  21568. Approved: parallel@hubcap.clemson.edu
  21569. Follow-up: comp.parallel
  21570. Path: bounce-back
  21571. Newsgroups: comp.parallel
  21572. From: chiangm@cps.msu.edu (Chiang Chi Ming)
  21573. Subject: Ask for Help: locate communication benchmark programs
  21574. Date: 3 Nov 1993 20:32:36 GMT
  21575. Organization: Dept. of Computer Science, Michigan State University
  21576.  
  21577.     I am looking for benchmark programs which can measure the
  21578. performance of network or any paper mentions about this kind
  21579. of programs. Any information will be helpful. Thanks in
  21580. advance for your help.
  21581.  
  21582. --Chi-ming Chiang
  21583.   chiangm@cps.msu.edu
  21584.  
  21585. Approved: parallel@hubcap.clemson.edu
  21586. Follow-up: comp.parallel
  21587. Path: bounce-back
  21588. Newsgroups: comp.parallel
  21589. Date: Wed, 3 Nov 93 15:38:01 PST
  21590. From: ahicken@parasoft.com (Arthur Hicken)
  21591. Subject: Hands-on Parallel/Distributed Programming Courses offered.
  21592.  
  21593. ParaSoft Corporation, the leader in distributed and parallel computing
  21594. tools, will conduct a hands on, introductory  course on the theory and
  21595. practice of distributed and parallel computing.  This unique, hands-on
  21596. focus of this course, 75% of the total time, assures that participants
  21597. will  gain  a  practical  understanding  of  distributed  computing
  21598. applications.  Each participant  will program on a workstation  linked
  21599. to a network  within the lab, to  demonstrate  and verify  theoretical
  21600. concepts presented in the seminar.
  21601.  
  21602.  
  21603. Course Goals:  
  21604. Upon completion of the course, the participant will be able to:
  21605.  
  21606.    1.  Set up a simple job dispatcher with dynamic load balancing.
  21607.    2.  Build an application which runs on multiple platforms.
  21608.    3.  Implement process communication for tightly coupled applications.
  21609.  
  21610. Course Content:
  21611.  
  21612.    1. Theory - Introduction to parallel/distributed computing,
  21613.            programming models, programming environments.
  21614.  
  21615.    2. Labs   - Machine setup, Running parallel/distributed programs,
  21616.            basic parallel/distributed I/O, message passing,
  21617.            global operations, data decomposition, heterogeneous computing.
  21618.  
  21619.  
  21620. Prerequisites:  
  21621.    1.  Working knowledge of C or Fortran.
  21622.    2.  Familiarity with Unix
  21623.    3.  Strong desire to learn about distributed computing.
  21624.  
  21625.  
  21626. Dates      :  Thursday, July 8 - Friday, July 9 
  21627.  
  21628. Location   :  ParaSoft Offices - Pasadena, CA
  21629.  
  21630. Instructors:  Dr.  Adam Kolawa - World wide expert and lecturer on
  21631.                                  distributed computing
  21632.  
  21633.               Arthur Hicken    - Unix expert and invited participant
  21634.                                  at ACM and IEEE forums
  21635.  
  21636.  
  21637. Lab Setup:  Each participant will develop distributed applications at
  21638. a workstation on a network within the lab.
  21639.  
  21640.  
  21641. Cost:  $495 - includes a complete set of tutorial materials and
  21642. Express manuals. Lunches and the evening receptions are included.
  21643. Cost can be credited toward purchase of Express, or toward
  21644. application development services.
  21645.  
  21646. Educational Discount: Only $200 for university personnel and students.
  21647.  
  21648.  
  21649. Participation:  Strictly limited to 15 people.  Please call or send 
  21650. email to parasoft early to reserve your space. Applications are accepted
  21651. on a first-come, first-serve basis. We will be glad to help you arrange
  21652. travel and hotel accommodations.
  21653.  
  21654.  
  21655. Additional Courses are available to graduates from the Level I course:
  21656. Level II - 3 days.  Covers parallel/distributed: debugging, graphics,
  21657.             performance monitoring, parallelization techniques,
  21658.             asynchronous programming, basic parallel/distributed
  21659.             application skeletons, etc.
  21660.  
  21661. Level III - 3 days. Covers application of topics learned in the level I
  21662.                     and II courses by applying these techniques on real
  21663.             applications.
  21664.  
  21665.  
  21666. Special Evening Receptions - Get acquainted and discuss practical
  21667. applications (Drinks and hors-d'oeuvres provided)
  21668.  
  21669. A copy of the transparencies used in the course can be obtained from
  21670. the ParaSoft anonymous ftp server at ftp.parasoft.com (192.55.86.17)
  21671. in the /express/classes directory.
  21672.  
  21673. For more information contact:
  21674.  
  21675. ParaSoft Corporation
  21676. 2500 E. Foothill Blvd.
  21677. Pasadena, CA 91107-3464
  21678. voice: (818) 792-9941
  21679. fax  : (818) 792-0819
  21680. email: info@parasoft.com
  21681.  
  21682. Approved: parallel@hubcap.clemson.edu
  21683. Follow-up: comp.parallel
  21684. Path: bounce-back
  21685. Newsgroups: comp.parallel
  21686. Date: Wed, 3 Nov 93 16:20:55 PST
  21687. From: ahicken@parasoft.com (Arthur Hicken)
  21688. Subject: Hands-on Parallel/Distributed Programming Courses offered.
  21689.  
  21690. Oops, sorry, the dates in the previous post were wrong, as well
  21691. as the place. Here's the correct info.
  21692.  
  21693. -Arthur "Grabbed the wrong file" Hicken
  21694.  
  21695.  
  21696. This course has been timed to take place after the end of the Cluster 
  21697. Workship at Florida State, so you can plan to attend both if you'd
  21698. like.
  21699.  
  21700.  
  21701. Dates      :  Friday, December 10 - Sunday, December 12 
  21702.  
  21703. Location   :  Florida State University, Tallahassee, Florida  
  21704.  
  21705. Instructors:  Dr.  Adam Kolawa - World wide expert and lecturer on
  21706.                                  distributed computing
  21707.  
  21708.  
  21709. Participation:  Strictly limited to 15 people.  Please call or send 
  21710. email to parasoft early to reserve your space. Applications are accepted
  21711. on a first-come, first-serve basis. 
  21712.  
  21713. A copy of the transparencies used in the course can be obtained from
  21714. the ParaSoft anonymous ftp server at ftp.parasoft.com (192.55.86.17)
  21715. in the /express/classes directory.
  21716.  
  21717. For more information contact:
  21718.  
  21719. ParaSoft Corporation
  21720. 2500 E. Foothill Blvd.
  21721. Pasadena, CA 91107-3464
  21722. voice: (818) 792-9941
  21723. fax  : (818) 792-0819
  21724. email: info@parasoft.com
  21725.  
  21726. Approved: parallel@hubcap.clemson.edu
  21727. Follow-up: comp.parallel
  21728. Path: bounce-back
  21729. Newsgroups: comp.parallel,comp.sys.super
  21730. From: jet@nas.nasa.gov (J. Eric Townsend)
  21731. Subject: mailing list info on TMC CM-5, Intel iPSC/860, Intel Paragon
  21732. Organization: NAS/NASA-Ames Research Center
  21733.  
  21734. J. Eric Townsend (jet@nas.nasa.gov)
  21735. last updated: 3 Nov 1993 (corrected admin/managers list info)
  21736.  
  21737. This file is posted to USENET automatically on the 1st and 15th of
  21738. each month.
  21739.  
  21740. It is mailed to the respective lists to remind users how to
  21741. unsubscribe and set options.
  21742.  
  21743. INTRODUCTION
  21744. ------------
  21745.  
  21746. Several mailing lists exist at NAS for the discussion of using and
  21747. administrating Thinking Machines CM-5  and Intel iPSC/860 parallel
  21748. supercomputers.
  21749.  
  21750. These mailing lists are open to all persons interested in the systems.
  21751.  
  21752. The lists are:
  21753.  
  21754. LIST-NAME               DESCRIPTION
  21755. cm5-managers    --  discussion of administrating the TMC CM-5
  21756. cm5-users       --       "     "   using the TMC CM-5
  21757. ipsc-managers      --       "     "  administrating the Intel iPSC/860
  21758. ipsc-users      --       "     "  using the Intel iPSC/860
  21759. paragon-managers   --       "     "  administrating the Intel Paragon
  21760. paragon-users   --       "     "  using the Intel Paragon
  21761.  
  21762. The ipsc-* lists at cornell are going away, the lists here will
  21763. replace them. (ISUG members will be receiving information on this in
  21764. the near future.)  The cm5-users list is intended to complement the
  21765. lbolt list at MSC.
  21766.  
  21767. SUBSCRIBING/UNSUBSCRIBING
  21768. -------------------------
  21769.  
  21770. All of the above lists are run with the listserv package.  In the
  21771. examples below, substitute the name of the list from the above table
  21772. for the text "LIST-NAME".
  21773.  
  21774. To subscribe to any of the lists, send email to
  21775. listserv@boxer.nas.nasa.gov with a *BODY* of
  21776.  
  21777. subscribe LIST-NAME your_full_name
  21778.  
  21779. Please note:
  21780.  - you are subscribed with the address that you sent the email from.
  21781.    You cannot subscribe an address other than your own.  This is
  21782.    considered a security feature, but I haven't gotten around to taking
  21783.    it out.
  21784.  - your subscription will be handled by software, so any other text
  21785.    you send will be ignored
  21786.  
  21787. Unsubscribing
  21788.  
  21789. It is important to understand that you can only unsubscribe from the
  21790. address you subscribed from.  If that is impossible, please contact
  21791. jet@nas.nasa.gov to be unsubscribed by hand.  ONLY DO THIS IF
  21792. FOLLOWING THE INSTRUCTIONS DOES NOT PRODUCE THE DESIRED RESULTS!  I
  21793. have better things to do than manually do things that can be
  21794. automated.
  21795.  
  21796. To unsubscribe from any of the mailing lists, send email to
  21797. listserv@boxer.nas.nasa.gov with a body of
  21798.  
  21799. unsubscribe LIST-NAME
  21800.  
  21801. OPTIONS
  21802. -------
  21803. If you wish to receive a list in digest form, send a message
  21804. to listserv@boxer.nas.nasa.gov with a body of
  21805.  
  21806. set LIST-NAME mail digest
  21807.  
  21808. OBTAINING ARCHIVES
  21809. ------------------
  21810.  
  21811. There are currently no publicly available archives.  As time goes on,
  21812. archives of the lists will be made available.  Watch this space.
  21813. -- 
  21814. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  21815. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  21816. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  21817. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  21818.  
  21819. Approved: parallel@hubcap.clemson.edu
  21820. Follow-up: comp.parallel
  21821. Path: bounce-back
  21822. Newsgroups: comp.parallel
  21823. From: andreas@nlp.physik.th-darmstadt.de (Andreas Billo)
  21824. Subject: [Q] Problem with parallel threads with 3L-C v 2.1.1
  21825. Organization: Institut fuer Angewandte Physik, TH-Darmstadt, Germany
  21826. Reply-To: andreas@nlp.physik.th-darmstadt.de
  21827.  
  21828.    we have the following problem:
  21829.  
  21830.    The program is starting four parallel threads.
  21831.    The thread RecS blocks the other threads in the 
  21832.    following condition,
  21833.    if the for-loop contains a lot of program code.
  21834.    Although the code is not executed.
  21835.    
  21836.    If we insert a break condition in the for-loop,
  21837.    the other threads are executed after finishing
  21838.    the for-loop.
  21839.  
  21840.    Thanks for any ideas and hints.
  21841.  
  21842.    andreas
  21843.  
  21844.  
  21845.    main()
  21846.    {
  21847.     StartAdr2=malloc( 300000 );
  21848.     thread_start( FMain1, StartAdr2, 10000, ... );
  21849.     thread_start( FMain2, StartAdr2+10000, 10000, ... );
  21850.     thread_start( FMain3, StartAdr2+20000, 10000, ... );
  21851.    }
  21852.  
  21853.    void FMain1( StartAdr )
  21854.    char *StartAdr;
  21855.    {
  21856.     ...
  21857.     thread_start( .. )
  21858.     thread_start( .. )
  21859.     thread_start( RecS, StartAdr2+50000, 10000,  ... )
  21860.    }
  21861.  
  21862.    void FMain2( StartAdr )
  21863.    char *StartAdr;
  21864.    {
  21865.     ...
  21866.     par_print("...");
  21867.    }
  21868.  
  21869.    void FMain3( StartAdr )
  21870.    char *StartAdr;
  21871.    {
  21872.     ...
  21873.     par_print("...");
  21874.    }
  21875.  
  21876.    void RecS( ... )
  21877.    {
  21878.     ...
  21879.  
  21880.     for(;;){
  21881.       if (1 == 2) {
  21882.       code};
  21883.     };
  21884.    }
  21885.  
  21886.  
  21887.  
  21888.  
  21889. ---
  21890.  
  21891. ---------------------------------------------------------
  21892. |                            |
  21893. |   Name:         Andreas Billo                |
  21894. |   Organization: Institut fuer Angewandte Physik    |
  21895. |                 Nichtlineare Physik            |
  21896. |                 TH Darmstadt                |
  21897. |   Address:      Schlossgartenstr. 7            |
  21898. |   City:         64289 Darmstadt            |
  21899. |   Country:      Germany                |
  21900. |   Phone:          +49 - +6151 - 164086            |
  21901. |   Fax:          +49 - +6151 - 164534            |
  21902. |   Internet:     andreas@nlp.physik.th-darmstadt.de    |
  21903. |                            |
  21904. ---------------------------------------------------------
  21905.  
  21906.    IBM: Iesus Babbage Mundi, Iesum Binarium Magnificamur.
  21907.    AMDG: Ad Maiorem Dei Gloriam? Von wegen Ars Magna,
  21908.    Digitale Gaudium! IHS: Iesus Hardware & Software!
  21909.  
  21910.                                          Casaubon
  21911.  
  21912.  
  21913.  
  21914. Approved: parallel@hubcap.clemson.edu
  21915. Newsgroups: comp.parallel
  21916. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  21917. Subject: Need Replacement Moderator for Comp.Parallel
  21918.  
  21919. I've been the moderator of this newsgroup since 1987. I think it's about
  21920. time for me to move on. My professional duties are catching up with me.
  21921. Therefore, I'd like someone to volunteer to be moderator.
  21922.  
  21923. The job is not hard---it takes (on most days) much less than an hour a day.
  21924. Mondays are the worst and that takes about 15-30 minutes to get everything
  21925. posted. Moderating is very important. It keeps the tone professional and
  21926. it supports a thirty-five member mailing list. We have readers who do
  21927. not have net access all over Asia, Europe, and the Americas---the moderating
  21928. sets the tone for services and discussions.
  21929.  
  21930. If you're SERIOUSLY interested, contact me. If no one offers, the group
  21931. will become unmoderated at the end of the year.
  21932.  
  21933. It's been fun and informative. Thanks for you patience.
  21934.  
  21935. Steve
  21936. =========================== MODERATOR ==============================
  21937. Steve Stevenson                            fpst@hubcap.clemson.edu
  21938. Administrative address                     steve@hubcap.clemson.edu
  21939. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  21940. Wanted: Sterbetz, P. Floating Point Computation
  21941. Approved: parallel@hubcap.clemson.edu
  21942. Follow-up: comp.parallel
  21943. Path: bounce-back
  21944. Newsgroups: comp.parallel
  21945. From: clark@bruce.nist.gov
  21946. Subject: NIST SBIR request for proposal
  21947. Sender: news@dove.nist.gov
  21948. Organization: NIST
  21949. Date: Wed, 3 Nov 1993 13:59:34 GMT
  21950. Apparently-To: comp-parallel@uunet.uu.net
  21951.  
  21952. The National Institute of Standards and Technology has issued
  21953. a request for proposals to be funded by its Small Business
  21954. Innovation Research (SBIR) program.  Readers of this newsgroup
  21955. may be particularly interested in a requests for proposal in 
  21956. the Physics topical area:   
  21957.  
  21958.  8.7.5   Schroedinger Equation Algorithms for MIMD Architectures
  21959.  
  21960.  NIST programs in laser-atom interaction utilize models that 
  21961.  require the numerical solution of a many-particle, time-dependent
  21962.  Schroedinger equation.  We are interested in algorithms for the 
  21963.  solution of this equation that can take advantage of computational
  21964.  parallelism, particularly multiple-instruction, multiple-data
  21965.  (MIMD) architectures.
  21966.  
  21967.  We require a set of computational modules that can solve the
  21968.  initial-value problem for the Schroedinger equation on a
  21969.  multidimensional spatial grid.  Such modules should be
  21970.  written in the Fortran or C languages, and use PVM for
  21971.  interprocessor communication so that they can be executed on
  21972.  a network of heterogeneous computers.  They should provide
  21973.  standard interfaces for visulaization, e.g. calls to AVS,
  21974.  PV-WAVE, or Display PostScript.  Preference will be given to
  21975.  proposals that optimize fast fourier transform techniques for
  21976.  MIMD architectures, or which also provide for the solution
  21977.  of large eigenvalue problems. 
  21978.  
  21979. Further information on the SBIR program may be obtained from
  21980.  
  21981.         Mr. Norman Taylor
  21982.         A343 Physics Building
  21983.         National Institute of Standards and Technology
  21984.         Gaithersburg, MD 20899
  21985.         (301)975-4517
  21986.  
  21987. The deadline for receipt of proposals is December 1, 1993.
  21988.  
  21989. Approved: parallel@hubcap.clemson.edu
  21990. Follow-up: comp.parallel
  21991. Path: bounce-back
  21992. Newsgroups: comp.parallel
  21993. From: torsten@news.dcs.warwick.ac.uk (Torsten Scheel)
  21994. Subject: Voronoi algorithm
  21995. Message-ID: <1993Nov3.174014.18261@dcs.warwick.ac.uk>
  21996. Originator: torsten@slate
  21997. Sender: news@dcs.warwick.ac.uk (Network News)
  21998. Nntp-Posting-Host: slate
  21999. Organization: Department of Computer Science, Warwick University, England
  22000. Date: Wed, 3 Nov 1993 17:40:14 GMT
  22001.  
  22002.  
  22003. Hi !
  22004. I'm looking for SIMD algorithms for computing Voronoi diagram of a point set
  22005. in Euclidian space. I try to implement one algorithm using the language
  22006. Parallaxis. Has anybody experiences with this problem ?
  22007. Thanks, Torsten (Please excuse my english language, it is surely faulty)
  22008. P.S.: Please mail me directly. Thank you !
  22009.  
  22010. Approved: parallel@hubcap.clemson.edu
  22011. Follow-up: comp.parallel
  22012. Path: bounce-back
  22013. From: Andre.Seznec@irisa.fr (Seznec Andre)
  22014. Newsgroups: comp.arch,comp.parallel
  22015. Subject: Reference pointer
  22016. Date: 4 Nov 1993 10:57:34 GMT
  22017. Organization: Irisa, Rennes(FR)
  22018.  
  22019. I am needing a pointer to the following paper:
  22020.  
  22021. "A flexible interleaved memory design for generalized low conflict memory access", by L.S. Kaplan
  22022.  
  22023. Thanks
  22024.  
  22025.  
  22026. Approved: parallel@hubcap.clemson.edu
  22027. Follow-up: comp.parallel
  22028. Path: bounce-back
  22029. Newsgroups: comp.parallel
  22030. From: dka@dcs.ed.ac.uk
  22031. Date: Thu, 4 Nov 93 11:42:45 GMT
  22032. Subject: CFP: ACM/IEEE/SCS 8th Workshop on Parallel and Distributed Simulation
  22033.  
  22034.               =============================================      
  22035.                            Call For Papers
  22036.  
  22037.         ACM/IEEE/SCS 8th Workshop on Parallel and Distributed Simulation 
  22038.  
  22039.                University of Edinburgh, Scotland, U.K.
  22040.                           
  22041.                            July 6-8 1994,
  22042.               =============================================     
  22043.                              Sponsors:
  22044. ACM Special Interest Group on Simulation (SIGSIM),
  22045. IEEE Computer Society Technical Committee on Simulation (IEEE-TCSIM), and
  22046. Society for Computer Simulation (SCS)
  22047.  
  22048.                              Topics:
  22049. PADS provides a forum for presenting recent results in the simulation of 
  22050. large and complex systems by exploiting concurrency. The scope of the 
  22051. conference includes, but is not limited to:
  22052.  
  22053. * Algorithms, and methods for concurrent simulation
  22054.  (e.g. optimistic, conservative, discrete, continuous, event-driven, oblivious)
  22055. * Programming paradigms for concurrent simulation
  22056.  (e.g. object-oriented, logic, functional)
  22057. * Models of concurrent simulation
  22058.  (e.g. stochastic, process algebraic, temporal logic)
  22059. * Performance evaluation (both theoretical and experimental) of
  22060.   concurrent simulation systems
  22061. * Special purpose concurrent simulation (e.g. multiprocessor
  22062.   architectures, distributed systems, telecommunication networks,
  22063.   VLSI circuits, cache simulations)
  22064. * Relationship of concurrent simulation and underlying architecture
  22065.  (e.g. SIMD and MIMD machines, geographically distributed computers,
  22066.   tightly-coupled multiprocessors)
  22067.  
  22068.                   Schedule:
  22069. Deadline for Paper submission :  December 1, 1993
  22070. Notification of acceptance    :  March 1, 1994
  22071. Camera ready copy due by      :  April 15, 1994.
  22072.  
  22073.  
  22074. Invited Speaker : LEONARD KLEINROCK (Los Angeles, USA)
  22075.  
  22076. General Chair     : Rajive Bagrodia (Los Angeles, USA)
  22077. Local Arrangements: Monika Lekuse (Edinburgh, U.K.)
  22078.  
  22079.                           Program Co-chairs
  22080.  
  22081.         D. K. Arvind                           Jason Yi-Bing Lin
  22082. Department of Computer Science,                     Bellcore,
  22083.    University of Edinburgh,                  MRE 2D-297 
  22084.        Mayfield Road,                          445 South Street
  22085.    Edinburgh EH9 3JZ, U.K.                 Morristown, NJ 07962, USA.
  22086.      dka@dcs.ed.ac.uk                      liny@thumper.bellcore.com
  22087.   Voice:  +44 31 650 5176                  Voice:  +1 (201) 829-5095
  22088.     Fax:  +44 31 667 7209                    Fax:  +1 (201) 829-5886
  22089.  
  22090.  
  22091.                           Program Committee
  22092.  
  22093. I. Akyildiz (Atlanta, USA)       A. Greenberg (Bell Laboratory, USA)
  22094. R. Ayani (Kista, Sweden)         P. Heidelberger (IBM, USA)
  22095. F. Baiardi (Pisa, Italy)         C. Lengauer (Passau, Germany)
  22096. M. Bailey* (Tucson, USA)         D. Nicol* (Williamsburg, USA)
  22097. S. Balsamo (Pisa, Italy)         T. Ott (Bellcore, USA)
  22098. H. Bauer (Munich, Germany)       B. Preiss (Waterloo, Canada)
  22099. R. Fujimoto* (Atlanta, USA)      S. Turner (Exeter, UK)
  22100.  
  22101. * Member of the Steering Committee\\
  22102.  
  22103. Send e-mail to D. K. Arvind (dka@dcs.ed.ac.uk) for inclusion in the PADS 
  22104. electronic mailing list.
  22105.  
  22106.                      Submissions:
  22107. Prospective authors should submit six copies of the paper written in
  22108. English and not exceeding 5000 words to either one of the Program Co-chairs.
  22109. Papers must be original and not submitted for publication elsewhere.
  22110. Each submission should include the following in a cover sheet: short
  22111. abstract, contact person for correspondence, postal and e-mail addresses.
  22112. To ensure blind reviewing, authors' names and affiliations
  22113. should appear only on the cover sheet.  Bibliographic references
  22114. should be modified so as not to compromise the authors' identity.
  22115. Papers submitted by electronic mail will not be considered.
  22116.  
  22117.  
  22118.  
  22119.  
  22120.  
  22121.  
  22122.  
  22123.  
  22124.  
  22125.  
  22126.  
  22127.  
  22128.  
  22129. Approved: parallel@hubcap.clemson.edu
  22130. Follow-up: comp.parallel
  22131. Path: bounce-back
  22132. Newsgroups: comp.parallel
  22133. From: shollen@kiwi.cs.wright.edu (Sheila Hollenbaugh)
  22134. Subject: Help finding vendors for parallel systems
  22135. Date: 4 Nov 1993 12:54:53 GMT
  22136. Organization: Wright State University, Dayton,OH
  22137.  
  22138. Some of our faculty have expressed an interest in obtaining a parallel
  22139. system such as an nCUBE or MasPar.  If anyone could provide me with
  22140. information about vendors of such beasts I would be most grateful.  We
  22141. are in the Dayton, Ohio area, but manufacturers' addresses and phone
  22142. numbers anywhere in the US would be great.
  22143.  
  22144. --Sheila
  22145. --------------------------------
  22146. Sheila Hollenbaugh       Sr. Computer Systems Engineer
  22147. Wright State University  College of Engineering & Computer Science
  22148. Dayton, OH 45435  Voice: (513) 873-5077  FAX: (513) 873-5009
  22149. shollen@cs.wright.edu    or    shollen@valhalla.cs.wright.edu
  22150. Sheila Hollenbaugh       Sr. Computer Systems Engineer
  22151. Wright State University  College of Engineering & Computer Science
  22152. Dayton, OH 45435  Voice: (513) 873-5077  FAX: (513) 873-5009
  22153. shollen@cs.wright.edu    or    shollen@valhalla.cs.wright.edu
  22154.  
  22155. Approved: parallel@hubcap.clemson.edu
  22156. Follow-up: comp.parallel
  22157. Path: bounce-back
  22158. Newsgroups: comp.parallel
  22159. From: shollen@kiwi.cs.wright.edu (Sheila Hollenbaugh)
  22160. Subject: Help finding vendors for parallel systems
  22161. Date: 4 Nov 1993 12:54:53 GMT
  22162. Organization: Wright State University, Dayton,OH
  22163.  
  22164. Some of our faculty have expressed an interest in obtaining a parallel
  22165. system such as an nCUBE or MasPar.  If anyone could provide me with
  22166. information about vendors of such beasts I would be most grateful.  We
  22167. are in the Dayton, Ohio area, but manufacturers' addresses and phone
  22168. numbers anywhere in the US would be great.
  22169.  
  22170. --Sheila
  22171. --------------------------------
  22172. Sheila Hollenbaugh       Sr. Computer Systems Engineer
  22173. Wright State University  College of Engineering & Computer Science
  22174. Dayton, OH 45435  Voice: (513) 873-5077  FAX: (513) 873-5009
  22175. shollen@cs.wright.edu    or    shollen@valhalla.cs.wright.edu
  22176. Sheila Hollenbaugh       Sr. Computer Systems Engineer
  22177. Wright State University  College of Engineering & Computer Science
  22178. Dayton, OH 45435  Voice: (513) 873-5077  FAX: (513) 873-5009
  22179. shollen@cs.wright.edu    or    shollen@valhalla.cs.wright.edu
  22180.  
  22181. Approved: parallel@hubcap.clemson.edu
  22182. Follow-up: comp.parallel
  22183. Path: bounce-back
  22184. Newsgroups: comp.arch,comp.parallel
  22185. From: suja@cse.uta.edu (Elizabeth Suja)
  22186. Subject: Benchmarks
  22187. Organization: Computer Science Engineering at the University of Texas at Arlington
  22188.  
  22189. I was looking for some benchmark programs like gcc, expresso, spice, etc
  22190. to test a cache simulator I am working on. I would be grateful if anyone
  22191. could tell me where to obtain these from.  
  22192.  
  22193. Please respond to:
  22194.       suja@cse.uts.edu
  22195.  
  22196. Thanks in advance.
  22197.  
  22198. Elizabeth Suja
  22199.  
  22200.  
  22201.  
  22202. Approved: parallel@hubcap.clemson.edu
  22203. Follow-up: comp.parallel
  22204. Path: bounce-back
  22205. From: kamratha@rosebud.sdsc.edu (Anke Kamrath)
  22206. Newsgroups: comp.sys.super,comp.unix.cray,comp.parallel
  22207. Subject: Cray User Group Meeting - S'94, First Announcement
  22208. Organization: San Diego Supercomputer Center
  22209.  
  22210. ******************************************************
  22211. ******************************************************
  22212. ******************************************************
  22213. ***        FIRST ANNOUNCMENT                  ***
  22214. ***                                     ***
  22215. ***        CRAY USER GROUP                    ***
  22216. ***        Spring '94 Conference              ***
  22217. ***                                     ***
  22218. ***        March 14-18, 1994                  ***
  22219. ***        San Diego, California              ***
  22220. ***                                      ***
  22221. ***        LOCAL ARRANGEMENTS                 ***
  22222. ******************************************************
  22223. ******************************************************
  22224. ******************************************************
  22225.  
  22226. Dear Colleague,
  22227.  
  22228. The San Diego Supercomputer Center (with assistance from The Scripps Research 
  22229. Institute, Cray Research, Inc., and Cray Superserver Research, Inc.) is 
  22230. pleased to invite you to attend the Cray User Group Conference in San Diego, 
  22231. California, March 14-18, 1994. The theme of this year9s conference is 
  22232. Unparalleled Horizons.
  22233.  
  22234. To help you with arrangements, this brochure contains information about:
  22235.  
  22236.    Conference registration
  22237.    How to submit abstracts for conference papers and posters
  22238.    San Diego area
  22239.    Conference hotel and how to make reservations
  22240.  
  22241. Spring is a beautiful time of year in San Diego. Whether you like the ocean, 
  22242. the mountains, or the desert, all are nearby. So join us in San Diego, and 
  22243. expect a rewarding experience personally as well as professionally.
  22244.  
  22245. You will receive the final local arrangements brochure with details of 
  22246. the technical programs in January. If you have any questions, please 
  22247. contact us.  We9ll see you in March. 
  22248.  
  22249. Sincerely,
  22250.  
  22251. Anke Kamrath
  22252.  
  22253. Local Arrangements Chairperson
  22254. San Diego CUG
  22255. San Diego Supercomputer Center
  22256.  
  22257. LOCATION:  Princess Hotel Convention Center, San Diego, California
  22258.  
  22259. IMPORTANT DATES
  22260. Conference:                 March 14-18, 1994
  22261. Early Conference Registration Deadline: January 15, 1994
  22262. Hotel Registration Deadline:        February 10, 1994
  22263. Papers and Posters Deadline:         December 10, 1993
  22264. Late Conference Registration Deadline:  February 18, 1994
  22265. Last Day to Cancel:             February 18, 1994
  22266.  
  22267. SPONSORED BY THE SAN DIEGO SUPERCOMPUTER CENTER
  22268. A National Laboratory for Computational Science and Engineering
  22269.  
  22270. To the members of CUG:
  22271.  
  22272. It is my pleasure to cordially invite you to attend the 33rd Cray User 
  22273. Group meeting in San Diego, California, March 14-18, 1994. This years 
  22274. theme "Unparalleled Horizons"  will challenge us all as we look ahead to 
  22275. unequaled progress in high-performance computing technology.
  22276.  
  22277. Calls for Papers and Posters for the Conference are included at the back 
  22278. of this brochure. The deadline for abstracts and poster descriptions is 
  22279. December 10, 1993. Papers are presented in 30-minute time slots as a part 
  22280. of a topical formal session. The poster session is an opportunity to 
  22281. present your work in an informal, unstructured setting using a visual 
  22282. representation (a poster) rather than a paper. There will be an award 
  22283. for the best poster presentation. 
  22284.  
  22285. The Program Committee is planning a stimulating agenda. In addition to 
  22286. the successful Monday morning tutorials, the first day of the Conference 
  22287. will include a "What is CUG" discussion and an Advisory Council meeting. 
  22288. Tuesday morning, Astronaut Sally Ride will be Keynote Speaker. General 
  22289. sessions and special interest tracks will be held each day. The Conference 
  22290. concludes Friday at noon.
  22291.  
  22292. Birds-Of-a-Feather (BOF) sessions will be scheduled to bring together 
  22293. those people interested in discussing specific issues. If you wish to 
  22294. organize a BOF at the Conference, please contact me. A room for BOFs 
  22295. will be available.
  22296.  
  22297. We welcome you and hope to see you in San Diego. 
  22298.  
  22299. Jean Shuler
  22300.  
  22301. Program Chairperson
  22302. CUG Vice President
  22303. Lawrence Livermore National Laboratory
  22304.  
  22305.  
  22306. ** CONFERENCE INFORMATION **
  22307.  
  22308. LOCATION:
  22309. San Diego Princess Hotel Convention Center
  22310. 1404 West Vacation Road
  22311. San Diego, CA 92109
  22312. Conference Office
  22313.  
  22314. For general arrangements, conference registration, payment, and 
  22315. technical questions:
  22316.  
  22317. Until March 11, 1994
  22318.  
  22319. San Diego Supercomputer Center
  22320. CUG San Diego
  22321. P.O.Box 85608
  22322. San Diego, CA 92186-9784
  22323. Phone:     1-619-534-8333
  22324. Fax:     1-619-534-5152 
  22325. TDD :    1-619-534-5001 
  22326. E-mail: sdcug@sdsc.edu
  22327.  
  22328. >From  March 13-18
  22329.  
  22330. San Diego Princess Hotel 
  22331. Convention Center
  22332. Phone:    1-619-274-7141
  22333. Fax:     1-619-581-5908
  22334.  
  22335.  
  22336. PROGRAM, PAPERS, AND POSTERS
  22337.  
  22338. A preliminary conference program will be included in the January mailing, 
  22339. and the technical program will be finalized shortly before the conference. 
  22340. To submit a paper or poster, return the Call for Papers and Call for Posters 
  22341. forms at the end of this brochure as directed. All questions regarding the 
  22342. program should be directed to the Program Chairperson. 
  22343.  
  22344. REGISTRATION
  22345.  
  22346. Register as soon as possible to help the Local Arrangements Committee plan a 
  22347. well-organized conference. All conference registrations postmarked on or 
  22348. before January 15, 1994 are eligible for the reduced registration fee. We 
  22349. encourage all attendees to take advantage of this reduced fee. 
  22350.  
  22351. All registrations, with payment, must be postmarked on or before February 
  22352. 18th, 1994, using airmail, first-class postage. Confirmation will be sent 
  22353. after payment is received. 
  22354.  
  22355. CANCELLATION
  22356.  
  22357. Cancellation requests received by the CUG office on or before 
  22358. February 18, 1994 will be refunded in full. Cancellations received after 
  22359. February 18 will not be refunded.
  22360.  
  22361. REGISTRATION DESK
  22362.  
  22363. Pick up your registration materials and a conference badge at the Registration 
  22364. Desk in the Princess Convention Center in the Princess Ballroom foyer. You 
  22365. must wear the conference badge to participate in CUG sessions and events. 
  22366.  
  22367. CONFERENCE OFFICE HOURS
  22368.  
  22369. Sunday, March 13         4:00 pm to 7:00 pm
  22370. Monday, March 14         8:00 am to 7:00 pm
  22371. Tuesday, March 15         8:00 am to 6:00 pm
  22372. Wednesday, March 16         8:00 am to 5:30 pm
  22373. Thursday, March 17         8:00 am to 5:00 pm
  22374. Friday, March 18         8:00 am to 12:30 am
  22375.  
  22376. ** FACILITIES ***
  22377.  
  22378. MESSAGES
  22379.  
  22380. The conference office at the Princess Hotel will be staffed throughout the 
  22381. conference to assist with special requirements. Incoming telephone calls 
  22382. may be directed to the office at 1-619-274-7141. Messages will be posted 
  22383. near the registration area.
  22384.  
  22385. E-MAIL AND PERSONAL COMPUTERS
  22386.  
  22387. VT100 compatible terminals will be available to allow participants to send 
  22388. and receive e-mail and use the Internet. A Macintosh with Persuasion, 
  22389. MS Word, MS Excel, and MacDraw II and a printer will be available.
  22390.  
  22391. COPYING
  22392.  
  22393. A copy machine will be available for making limited copies. If you have 
  22394. handouts or documentation to distribute at the conference, please bring a 
  22395. sufficient number of copies with you.
  22396.  
  22397. DINING SERVICES
  22398.  
  22399. Refreshment will be available during breaks throughout the conference. 
  22400. Breakfast will be served Tuesday through Friday, and lunch Tuesday through 
  22401. Thursday. Food and drinks will be served at each of the social events. 
  22402. Special dietary requirements should be specified on the conference 
  22403. registration form. There are restaurants and bars located on the hotel 
  22404. grounds. If you are interested in sampling some of San Diego's excellent 
  22405. Mexican and Californian cuisine, ask the Concierge for recommendations.
  22406.  
  22407. SPECIAL NEEDS
  22408.  
  22409. The Princess Hotel is in compliance with the American Disabilities Act 
  22410. (ADA). If you have any special needs, please indicate them on the 
  22411. conference registration form.
  22412.  
  22413. ** HOTEL INFORMATION **
  22414.  
  22415. The conference hotel is the San Diego Princess Hotel and Conference Center, 
  22416. located in the center of San Diego on a forty-four acre island in Mission 
  22417. Bay. The accommodations consist of bungalows nestled among beautiful lagoons 
  22418. and lush tropical landscaping. A block of rooms at a special conference 
  22419. rate has been reserved (including a limited number at a government rate). 
  22420. The conference room rates are only available for reservations made before 
  22421. February 10, 1994. We recommend that you stay at the Princess, as there are 
  22422. no other hotels within walking distance. If the room block is filled, the 
  22423. hotel will attempt to locate you at another nearby hotel. Room rates at 
  22424. other hotels cannot be guaranteed. Given the likelihood that attendance 
  22425. at the conference will be large, we recommend you reserve your room as 
  22426. soon as possible. For your convenience, use the Hotel Registration form 
  22427. at the end of this brochure.
  22428.  
  22429. ** TRANSPORTATION **
  22430.  
  22431. San Diego is a large city, and public transportation is not very practical 
  22432. to get around the area. If you plan to explore San Diego or sightsee 
  22433. during your stay, we recommend you rent a car.
  22434.  
  22435. The San Diego International Airport (Lindbergh Field) is within 10 minutes 
  22436. drive of the Princess Hotel. 
  22437.  
  22438. SUPERSHUTTLE OR TAXI
  22439.  
  22440. If you do not rent a car at the airport, we recommend you use SuperShuttle 
  22441. to get to the Princess Hotel from the airport. The Shuttle cost is $6.00 
  22442. each way. To arrange for the shuttle:
  22443.  
  22444. Find the hotel courtesy phoneboard located in the baggage claim area. 
  22445. Press #69 and the operator will direct you to the nearby SuperShuttle 
  22446. loading area. Or call 278-5700 from any public telephone.
  22447.  
  22448. When returning to the airport, make advance reservations for SuperShuttle. 
  22449. Ask the Concierge or front desk to book your return reservation, or call 
  22450. 278-8877 to make a reservation yourself. 
  22451.  
  22452. Taxis are available immediately outside the baggage claim area at the 
  22453. airport. The taxi fare to the Princess is about $10.00.
  22454.  
  22455. DIRECTIONS
  22456.  
  22457. FROM AIRPORT
  22458.  
  22459. If you are driving from the airport, take Harbor Drive South (towards 
  22460. downtown San Diego) to Grape Street. At the light turn left. Follow the 
  22461. signs to Interstate 5 North. Take Interstate 5 North to Sea World Drive. 
  22462. At the top of the offramp at the light, turn left and go over the bridge 
  22463. onto Sea World Drive. Follow Sea World Drive to West Mission Bay 
  22464. Drive/Ingraham Street. Veer to the right. Stay on Ingraham until you 
  22465. reach West Vacation Road, where you will see the sign for the San Diego 
  22466. Princess Hotel. Turn left into the hotel grounds.
  22467.  
  22468. FROM LOS ANGELES
  22469.  
  22470. If you are driving from the Los Angeles area, take Interstate 5 South to 
  22471. Sea World Drive. At the top of the offramp at the light turn right. 
  22472. Follow Sea World Drive to West Mission Bay Drive/Ingraham Street. Veer to 
  22473. the right. Stay on Ingraham until you reach West Vacation Road, where you 
  22474. will see the sign for the San Diego Princess Hotel. Turn left into the 
  22475. hotel grounds.
  22476.  
  22477. TRAVEL TO MEXICO
  22478.  
  22479. Persons with U.S. citizenship may freely visit nearby Mexico (17 miles 
  22480. from downtown) with only normal identification. 
  22481.  
  22482. If you are not a U.S. citizen, you9ll need to carry your passport and 
  22483. have a multiple entry visa for the U.S. to visit Mexico. If you leave 
  22484. the U.S. with a single entry visa, you will not be able to return to the 
  22485. U.S. from Mexico; this is considered a second entry.
  22486.  
  22487. ** SOCIAL EVENTS **
  22488.  
  22489. CRI RECEPTION
  22490.  
  22491. All participants and guests are invited to a Monday evening reception 
  22492. sponsored by CRI.  Newcomer9s Reception
  22493.  
  22494. All new CUG member sites and first-time CUG attendees are invited to a 
  22495. reception Tuesday evening on the Governor9s Lawn.
  22496.  
  22497. NIGHT-OUT
  22498.  
  22499. The traditional CUG Night Out on Wednesday (6:00 until 10:15) is a cruise 
  22500. on San Diego Bay with dinner, music, and spectacular views of San Diego's 
  22501. downtown skyline and Coronado Bridge. The Night Out is included with 
  22502. registration, but additional tickets for guests must be purchased separately. 
  22503. Register and purchase any additional tickets as early as possible to 
  22504. guarantee space for guests.
  22505.  
  22506. GUEST PROGRAMS, TOURS, AND OTHER ACTIVITIES
  22507.  
  22508. If you plan to extend your stay and vacation in San Diego, the Princess 
  22509. Hotel offers many activities, including 
  22510.  
  22511.   Botanical walks around the island
  22512.   18-hole golf course
  22513.   Fitness Center
  22514.   Jogging and par course
  22515.   Bicycles and Quadracycles
  22516.   Tennis courts
  22517.   Swimming pools and whirlpools
  22518.   Shuffleboard
  22519.   Croquet course
  22520.   Wind surfing, sailing, and power and paddle boats
  22521.  
  22522. Some of these activities are free, and others are provided at an additional 
  22523. cost. Ask the Concierge for information about their fitness programs and 
  22524. recreation pass.
  22525.  
  22526. The Princess Hotel Concierge staff is also available to assist you with 
  22527. dinner reservations, directions, and tours. Discounted tickets for the San 
  22528. Diego Zoo, Wild Animal Park, and Sea World can be purchased from the 
  22529. Concierge Desk on the day you visit each attraction. The staff can also 
  22530. arrange fishing, scuba diving, water skiing, or golf at one of several 
  22531. championship courses located within 30 minutes of the hotel.
  22532.  
  22533. Shopping opportunities in the area include Seaport Village on San Diego 
  22534. Bay, Horton Plaza in downtown San Diego, and Old Town. You will need 
  22535. transportation to and from these areas, so plan to rent a car or hire a 
  22536. taxi.
  22537.  
  22538. CLIMATE/CLOTHING
  22539.  
  22540. San Diego has mild temperatures all year round. You rarely need a topcoat 
  22541. or raincoat. Evenings can be cool, so bring a sweater or jacket. The 
  22542. temperatures in March can be warm, so shorts and swimwear may be 
  22543. desirable. Average temperatures range from 50-66 F (or 10-19 C). 
  22544.  
  22545. Most San Diego restaurants welcome casual attire.
  22546.  
  22547. ** REGISTRATION INFORMATION **
  22548.  
  22549. REGISTRATION
  22550.  
  22551. Complete the registration form (next page) and mail or fax it to CUG San 
  22552. Diego. Conference fees are due with your registration. All payment must be 
  22553. in U.S. dollars from checks drawn on U.S. banks or by electronic funds 
  22554. transfer. Credit cards or invoices are not accepted.
  22555.  
  22556. PAYMENT BY CHECK 
  22557.  
  22558. Make checks payable to "CUG San Diego". Indicate your CUG site code on 
  22559. your check, and send it with your registration form. Be sure all currency 
  22560. conversions and transmission costs have been paid by your installation 
  22561. site. 
  22562.  
  22563. PAYMENT BY ELECTRONIC FUNDS TRANSFER
  22564.  
  22565. You may pay conference fees by transferring the appropriate amount (increased 
  22566. by $8.50 to cover the transfer fee) to:
  22567.  
  22568. CUG San Diego
  22569. Bank of America
  22570. La Jolla Plaza Branch # 1102
  22571. 4380 La Jolla Village / 100
  22572. San Diego, CA 92122
  22573.  
  22574. Account # 11027 04167
  22575.  
  22576. Routing # 121000358
  22577.  
  22578. Be sure to include your name and site on the order. Send a copy of the 
  22579. transfer order with your registration form.
  22580.  
  22581. ADDRESSES
  22582.  
  22583. Local Arrangements:
  22584.    Chairperson:  Anke Kamrath
  22585.    Coordinator:  Ange Mason
  22586.  
  22587.    CUG San Diego
  22588.    San Diego Supercomputer Center
  22589.    P.O.Box 85608
  22590.    San Diego, CA 92186-9784
  22591.    USA
  22592.  
  22593.    Phone: 1-619-534-8333
  22594.    Fax:   1-619-534-5152
  22595.    TDD:      1-619-534-5001
  22596.    E-Mail: sdcug@sdsc.edu
  22597.  
  22598. Program:
  22599.    Chairperson:  Jean Shuler
  22600.  
  22601.    National Energy Research Supercomputer Center (NERSC)
  22602.    P.O.Box 5509 L-561
  22603.    Lawrence Livermore National Laboratory
  22604.    Livermore, CA 94551
  22605.    USA
  22606.  
  22607.    Phone: 1-510-423-1909
  22608.    Fax:   1-510-422-0435
  22609.    E-Mail: shuler@nersc.gov
  22610.  
  22611. ** CONFERENCE REGISTRATION FORM **
  22612.  
  22613. Early Registration Deadline:  January  15, 1994
  22614. Late Registration Deadline:   February 18, 1994
  22615.  
  22616. Please type or block print separate registration forms for each
  22617. Conference attendee.  Mail or fax the registration with a check or a
  22618. copy of a funds transfer order to the following address:
  22619.  
  22620.         CUG San Diego, Ange Mason
  22621.         San Diego Supercomputer Center
  22622.         P.O. Box 85608
  22623.         San Diego, CA 92186-9784  USA
  22624.  
  22625.         Phone: 1-619-534-8333,  Fax: 1-619-534-5152
  22626.         TDD:   1-619-534-5001
  22627.  
  22628. __________________________________________________________________________
  22629. Full Name (Last, First)
  22630.  
  22631. __________________________________________________________________________
  22632. Organization Name            CUG Site Code (Mandatory)
  22633.  
  22634. __________________________________________________________________________
  22635. Department*                Mail Stop
  22636.  
  22637. __________________________________________________________________________
  22638. Signature of Installation Delegate     CUG Site Code
  22639. (If not employed by member site or CUG)
  22640.  
  22641. __________________________________________________________________________
  22642. Address
  22643.  
  22644. __________________________________________________________________________
  22645. City                State/Province    Postal/Zip Code     Country
  22646.  
  22647. __________________________________________________________________________
  22648. Daytime Phone (Country,Area Code,Number)  Fax (Country,Area Code,Number)
  22649.  
  22650. __________________________________________________________________________
  22651. Electronic Mail Address
  22652.  
  22653. __________________________________________________________________________
  22654. Guest Name
  22655.  
  22656. __________________________________________________________________________
  22657. Special Dietary Requirement (Please Specify)
  22658.  
  22659. __________________________________________________________________________
  22660. Other Special Needs (Please Specify)
  22661.  
  22662. __________________________________________________________________________
  22663. Emergency Contact and Phone Number
  22664.  
  22665. ___ Check here to have your name/address omitted from the official CUG
  22666.     Proceedings
  22667. ___ Check here if you are a new member or first-time attendee 
  22668.  
  22669.      Early Registration (before January 15, 1994)    $550
  22670.      Late Registration (between Jan.15-Feb.18,1994)    $600
  22671.   A. Registration fee:                        $ ______
  22672.  
  22673.      Additional copies of Proceedings            $ 30
  22674.   B. Additional Proceedings cost (quantity ___):        $ ______
  22675.  
  22676.      Additional guest tickets for Night Out        $100
  22677.   C. Additional guest ticket cost (number: ___):        $ ______
  22678.  
  22679.   D. For electronic funds transfer fee, add $8.50:        $ ______
  22680.  
  22681.   E. Payment due, in U.S. funds only (A + B + C + D):        $ ______
  22682.  
  22683. ** CALL FOR PAPERS ***
  22684.  
  22685. Deadline:  December 10, 1993
  22686.  
  22687. Please type or block print the information requested on this form. Mail 
  22688. or fax to the Program Chair:
  22689.  
  22690. Jean Shuler
  22691. National Energy Research Supercomputer Center
  22692. P.O. Box 5509 L-561
  22693. Lawrence Livermore National Laboratory
  22694. Livermore, CA 94551
  22695. USA
  22696.  
  22697. Phone:    1-510-423-1909
  22698. Fax:    1-510-422-0435
  22699. E-mail: shuler@nersc.gov
  22700.  
  22701.  
  22702. ____________________________________________________________________________
  22703. NAME
  22704.  
  22705. ____________________________________________________________________________
  22706. ORGANIZATION    CUG SITE CODE (MANDATORY)
  22707.  
  22708. ____________________________________________________________________________
  22709. DEPARTMENT    MAIL STOP
  22710.  
  22711. ____________________________________________________________________________
  22712. ADDRESS
  22713.  
  22714. ____________________________________________________________________________
  22715. CITY    STATE/PROVINCE    POSTAL/ZIP CODE    COUNTRY
  22716.  
  22717. ____________________________________________________________________________
  22718. Daytime Phone (Country,Area Code,Number)     Fax (Country,Area Code,Number):
  22719.  
  22720. ____________________________________________________________________________
  22721. ELECTRONIC MAIL ADDRESS
  22722.  
  22723. ____________________________________________________________________________
  22724. TITLE OF PAPER
  22725.  
  22726. ABSTRACT (TWO OR THREE SENTENCES)
  22727.  
  22728.  
  22729.  
  22730.  
  22731.  
  22732.  
  22733.  
  22734.  
  22735.  
  22736.  
  22737.  
  22738.  
  22739. AUDIO/VISUAL REQUIREMENTS
  22740.  
  22741.    Video 1/2": VHS/ NTSC, PAL, SECAM    
  22742.    Video 3/4" U-matic/NTSC    
  22743.    35 mm slide projector    
  22744.    Overhead Projector
  22745.    Other (specify): ______________________________________
  22746.  
  22747. SESSION IN WHICH YOU WISH TO PRESENT
  22748.  General Sessions    Operating Systems    Applications
  22749.  Operations        Networking        Performance
  22750.  Management        Software Tools        Graphics
  22751.  Mass Storage        Systems            User Services
  22752.  
  22753.  
  22754. ** CALL FOR POSTERS **
  22755.  
  22756. Deadline:  December 10, 1993
  22757.  
  22758. Please type or block print the information requested on this form. 
  22759. Mail or fax to:
  22760.  
  22761. Larry Eversole
  22762. JPL/Cal Tech
  22763. MS 301-455
  22764. 4800 Oak Grove Drive
  22765. Pasadena, CA 91109
  22766. USA
  22767.  
  22768. Fax:    1-818-393-1187
  22769. E-mail: eversole@voyager.jpl.nasa.gov
  22770.  
  22771.  
  22772. ____________________________________________________________________________
  22773. NAME
  22774.  
  22775. ____________________________________________________________________________
  22776. ORGANIZATION    CUG SITE CODE (MANDATORY)
  22777.  
  22778. ____________________________________________________________________________
  22779. DEPARTMENT    MAIL STOP
  22780.  
  22781. ____________________________________________________________________________
  22782. ADDRESS
  22783.  
  22784. ____________________________________________________________________________
  22785. CITY    STATE/PROVINCE    POSTAL/ZIP CODE    COUNTRY
  22786.  
  22787. ____________________________________________________________________________
  22788. Daytime Phone (Country,Area Code,Number)     Fax (Country,Area Code,Number):
  22789.  
  22790. ____________________________________________________________________________
  22791. ELECTRONIC MAIL ADDRESS
  22792.  
  22793. ____________________________________________________________________________
  22794. TITLE OF POSTER
  22795.  
  22796. _____________________________________________________________________________
  22797. SHORT DESCRIPTION
  22798.  
  22799.  
  22800.  
  22801.  
  22802.  
  22803.  
  22804.  
  22805.  
  22806.  
  22807.  
  22808.  
  22809. ROUGH MOCK-UP OF THE POSTER
  22810.  
  22811.  
  22812.  
  22813.  
  22814.  
  22815.  
  22816.  
  22817.  
  22818.  
  22819.  
  22820.  
  22821.  
  22822. ** HOTEL REGISTRATION **   CRAY USER GROUP Meeting, March 14-18,1994
  22823.  
  22824. Deadline: February 10, 1994
  22825.  
  22826. Please type or block print the information requested. Mail or fax it to 
  22827. the following address:
  22828.  
  22829. San Diego Princess Hotel
  22830. Accommodation Reservation Request
  22831. 1404 West Vacation Road
  22832. San Diego, California 92109-7994
  22833. USA
  22834.  
  22835. Phone:    1-619-274-4630      TDD:     1-619-274-4630
  22836. FAX:     1-619-581-5929 (Allow 24 hours for confirmation)
  22837.  
  22838.  
  22839. _____________________________________________________________________________
  22840. Last Name    First Name
  22841.  
  22842. _____________________________________________________________________________
  22843. Mailing Address
  22844.  
  22845. _____________________________________________________________________________
  22846. City    State/Province    Postal/ZIP Code    Country
  22847.  
  22848. _____________________________________________________________________________
  22849. Daytime Phone (Country,Area Code,Number)     Fax (Country,Area Code,Number):
  22850.  
  22851. _____________________________________________________________________________
  22852. Date of Arrival      Estimated time of arrival    Date of Departure
  22853.  
  22854.  Standard room rate    $120
  22855.  Government room rate*    $79 (Government ID required)
  22856.  Any additional persons    $15   (Number _________ )
  22857.  1 Bed ___  2 Beds ___  Smoking Room ___    Non-Smoking Room ____
  22858.  
  22859.  All rates subject to tax. Current tax is 9%.
  22860.  
  22861. * A limited number of government-rate rooms is available. If you qualify 
  22862.   for a government rate room please make your reservations as early as 
  22863.   possible to ensure a room at this rate.
  22864.  
  22865. Required: ONE NIGHT ROOM DEPOSIT INCLUDING TAX 
  22866.  
  22867. (A) Enclose a check in the amount of one night's lodging, (plus 9% tax), or 
  22868. (B) Complete the credit card information, and your account will be charged 
  22869.     in the amount of one night9s lodging, plus 9% tax, upon receipt by the 
  22870.     hotel. This deposit guarantees first night availability and will be 
  22871.     credited to the last night of your stay. An early check-out will forfeit 
  22872.     deposit. Be sure arrival and departure dates are correct. 
  22873.  
  22874. (A) Amount of enclosed check     $ _________________________
  22875.  
  22876. (B) Amount charged to credit card  $ _________________________
  22877.  
  22878.    VISA   MASTER CARD      Card number _______________________________
  22879.  
  22880.   Cardholder Name ______________________________
  22881.  
  22882.  
  22883. _____________________________________________________________________________
  22884. SIGNATURE                    CARD EXPIRATION DATE
  22885.  
  22886. o  Hotel check-in time and guestroom availability is 4:00 pm.
  22887. o  Check-out time is 12:00 noon.  For reservations made after February 
  22888.    10, 1994, or after the group block is filled, the hotel will extend 
  22889.    the group rate based upon availability.  If the Princess is sold 
  22890.    out, the hotel will refer you to a nearby hotel.
  22891.  
  22892. ___________________________________________________________________
  22893. SIGNATURE                        DATE
  22894.  
  22895. Approved: parallel@hubcap.clemson.edu
  22896. Follow-up: comp.parallel
  22897. Path: bounce-back
  22898. Newsgroups: comp.parallel
  22899. From: dongarra@cs.utk.edu
  22900. Subject: Templates for the Solution of Linear Systems
  22901.  
  22902. We have just completed a book on iterative methods.
  22903. The book is primarily aimed at computational scientists who are 
  22904. not specialists in computational linear algebra and would like to 
  22905. incorporate state-of-the-art computational methods for solving
  22906. large sparse non-symmetric systems of linear equations.
  22907.  
  22908. The title of the book is ``Templates for the Solution of Linear
  22909. Systems: Building Blocks for Iterative Methods'', is authored by 
  22910. Richard Barrett, Mike Berry, Tony Chan, Jim Demmel, June Donato, 
  22911. Jack Dongarra, Victor Eijkhout, Roldan Pozo, Chuck Romine and 
  22912. Henk van der Vorst, is being published by SIAM, and will be available 
  22913. in bound form in mid-November.  SIAM has set the price for the 
  22914. Templates book at List Price $18.00 / SIAM Member Price $14.40.
  22915. We are putting the royalties from the book into a SIAM fund
  22916. to help support students attend SIAM meetings.
  22917.     
  22918. The book contains:
  22919.  
  22920.      o)  Mathematical descriptions of the flow of the iterations.
  22921.      o)  Algorithms described in Fortran-77 and MATLAB.
  22922.      o)  Discussion of convergence and stopping criteria.
  22923.      o)  Suggestions for extending each method to more specific matrix types
  22924.             (for example, banded systems).
  22925.      o)  Suggestions for tuning (for example, which preconditioners
  22926.             are applicable and which are not).
  22927.      o)  Performance: when to use a method and why.
  22928.  
  22929. SIAM is trying an experiment with this book and has allowed the 
  22930. postscript file containing the book to be distributed freely over the 
  22931. internet.  It is available from netlib.
  22932.  
  22933. To retrieve the postscript file you can use one of the following methods:
  22934.      1) anonymous ftp to netlib2.cs.utk.edu
  22935.           cd linalg
  22936.           get templates.ps
  22937.           quit
  22938.      2) from any machine on the Internet type:
  22939.           rcp anon@netlib2.cs.utk.edu:linalg/templates.ps templates.ps
  22940.      3) send email to netlib@ornl.gov and in the message type:
  22941.           send templates.ps from linalg
  22942.      4) use Xnetlib and click "library", click "linalg", click
  22943.         "linalg/templates.ps", click "download", click "Get Files Now".
  22944.         (Xnetlib is an X-window interface to the netlib software
  22945.          based on a client-server model. The software can
  22946.          be found in netlib, ``send index from xnetlib'').
  22947.  
  22948. The algorithm descriptions in Fortran and MATLAB can be found in netlib 
  22949. under the directory linalg.
  22950.  
  22951. Jack
  22952.  
  22953. Approved: parallel@hubcap.clemson.edu
  22954. Follow-up: comp.parallel
  22955. Path: bounce-back
  22956. Newsgroups: comp.parallel
  22957. From: Thomas.Stricker@cs.cmu.edu
  22958. Subject: FTP site for iWarp information...
  22959. Date: Thu,  4 Nov 1993 14:55:23 -0500
  22960. Organization: Carnegie Mellon, Pittsburgh, PA
  22961.  
  22962. A while ago I posted the FTP site for the publications relating to
  22963. the Carnegie Mellon/Intel SSD built iWarp parallel computers.
  22964.  
  22965. To make the announcement short:
  22966.  
  22967. Decommisioned old ftp site: puffin.warp.cs.cmu.edu, 128.2.206.42
  22968. New ftp site:               skylark.warp.cs.cmu.edu, 128.2.222.122
  22969. User:                       anonymous... no password
  22970. Content:                    several publications relating to iWarp
  22971.                             and Fortran FX.
  22972.  
  22973. Given that there are not too many of these iWarp machines around
  22974. (1000-2000 nodes total) I thought that the archive is no longer used. But oh
  22975. well - less than five days after dedicating puffin.warp.cs.cmu.edu to
  22976. something else.  I started getting complaints. So please take a note
  22977. about that change.
  22978.  
  22979. Tom
  22980.  
  22981. PS: iWarp is a building block for parallel computers. It is similar to
  22982. transputers in its concepts except that it always delivered 20MFlops +
  22983. 20MIPS computation speed and 320MBytes/sec communication bandwidth per
  22984. node, consisting of a single integrated chip and memory. iWarps are
  22985. typically 2D toruses with 16-256 nodes.
  22986.  
  22987.  
  22988.  
  22989. Approved: parallel@hubcap.clemson.edu
  22990. Follow-up: comp.parallel
  22991. Path: bounce-back
  22992. Newsgroups: comp.parallel
  22993. From: zhang@ringer.cs.utsa.edu (Xiaodong Zhang)
  22994. Subject: CS faculty positions
  22995. Organization: University of Texas at San Antonio
  22996.  
  22997.                        UNIVERSITY OF TEXAS AT SAN ANTONIO
  22998.  
  22999.                       Faculty Positions in Computer Science
  23000.  
  23001. Applications are invited for two tenure-track faculty positions in
  23002. computer science at the assistant professor level.  Candidates must
  23003. have a strong backgrounds in high-performance compiler technology,
  23004. software engineering with emphasis in parallel system evaluation and
  23005. modeling.  Applicants must have a PhD prior to September 1, 1994 in
  23006. computer science or in a related area, and must demonstrate strong
  23007. potential for excellence in research and teaching.  Responsibilities
  23008. include research, teaching, direction of graduate students and program
  23009. development.
  23010.  
  23011. Salaries for the positions are competitive.  Applicants should submit
  23012. a letter of application, a resume, and the names, addresses and phone
  23013. numbers of at least three references to:
  23014.  
  23015.     Professor Robert Hiromoto
  23016.     Chairman of Computer Science Faculty Search
  23017.     University of Texas at San Antonio
  23018.     San Antonio, TX 78249
  23019.  
  23020. Preliminary screening will begin on February 1, 1994.  The closing date for
  23021. these positions is March 1, 1994.  Questions and inquiries can be made by 
  23022. e-mail: cs@ringer.cs.utsa.edu, however applications and reference letters
  23023. should be sent by post.  UTSA is an Equal Opportunity/Affirmative Action
  23024. Employer.  Women and minorities are encouraged to apply.
  23025.  
  23026.  
  23027. Approved: parallel@hubcap.clemson.edu
  23028. Follow-up: comp.parallel
  23029. Path: bounce-back
  23030. Newsgroups: comp.parallel
  23031. From: "Jeffrey M. Bloom" <jmb6g@server.cs.virginia.edu>
  23032. Subject: Need Slalom 1.0 C source code
  23033. Organization: University of Virginia Computer Science Department
  23034.  
  23035. If anybody has a copy of the C source code for the original
  23036. implementation of the Slalom benchmark, I would really appreciate
  23037. it if you could email it to me. That would be the implementation
  23038. which uses a cholesky decomposition to factor the matrix.
  23039.  
  23040.  
  23041. Thanks,
  23042.  
  23043. Jeff Bloom
  23044. jmb6g@virginia
  23045.  
  23046. Approved: parallel@hubcap.clemson.edu
  23047. Follow-up: comp.parallel
  23048. Path: bounce-back
  23049. Newsgroups: comp.parallel
  23050. From: kjcooper@gandalf.rutgers.edu (Kenneth Cooper)
  23051. Newsgroups: comp.parallel
  23052. Subject: Tuple space, What is it ????
  23053. Keywords: Tulpe
  23054. Date: 4 Nov 93 21:21:29 GMT
  23055. Organization: Rutgers Univ., New Brunswick, N.J.
  23056.  
  23057.  
  23058. Can anyone tell me what Tuple space is ???
  23059. Kenny Cooper
  23060.  
  23061. Approved: parallel@hubcap.clemson.edu
  23062. Follow-up: comp.parallel
  23063. Path: bounce-back
  23064. Newsgroups: comp.parallel
  23065. From: wang-fang@CS.YALE.EDU (Fang Wang)
  23066. Subject: Need information about vector compiler/language
  23067. Date: 4 Nov 1993 23:03:05 -0500
  23068. Organization: Yale University Computer Science Dept., New Haven, CT 06520
  23069.  
  23070.  
  23071.   Hi,
  23072.  
  23073.     I need to find any information about vectorizing compilers and
  23074. vector constructs in languages for using the vector units or vector
  23075. machines.  Can anyone help me to find the relevant references?  
  23076.  
  23077.     I'd greatly appreciate if someone can tell me any info about
  23078. Cray's vector language and compiler for its vector machine, as well. 
  23079.  
  23080.     Many thanks in advance.  
  23081.  
  23082.         --Fang
  23083.  
  23084.  
  23085.  
  23086.  
  23087. Approved: parallel@hubcap.clemson.edu
  23088. Follow-up: comp.parallel
  23089. Path: bounce-back
  23090. Newsgroups: comp.parallel
  23091. From: m751804@tuan.hpc.citri.EDU.AU (Tim Kiddle)
  23092. Subject: Supercomputer benchmarks
  23093. Summary: Dongarra benchmark results - where?
  23094. Keywords: benchmark supercomputer
  23095. Organization: Collaborative Information Technology Research Institute
  23096.  
  23097. Can anyone tell me if the Jack Dongarra benchmark
  23098. results are available on the Internet, and if so, where?
  23099.  
  23100. Thanks
  23101. Tim Kiddle
  23102. Bureau of Meteorology, Australia
  23103.  
  23104.  
  23105. Approved: parallel@hubcap.clemson.edu
  23106. Follow-up: comp.parallel
  23107. Path: bounce-back
  23108. Newsgroups: comp.parallel
  23109. From: kohut1@urz.unibas.ch
  23110. Subject: Teraflop and Dataflow Computers ?
  23111. Organization: University of Basel, Switzerland
  23112.  
  23113. Recently I read an old magazine about supercomputing (it was published in
  23114. 1990 or so). There was an article about Teraflop computers which should be
  23115. commercialiy available in 1993. Two approaches were mentioned : 1) a 
  23116. new version of SIMD type Connection Machine and 2) an MIMD type European 
  23117. Computer build of 64k Inmos T9000 Transputers. 
  23118. I never heard about any success (or failures) of these projects. So : 
  23119. are somewehre any Teraflop computers around yet ?
  23120.  
  23121. My second question concernes Dataflow computers. In some literature somebody 
  23122. wrote that a dataflow computer is still hypothetical and no such computer
  23123. could be build till now.  Somebody else has written, that there ARE dataflow
  23124. computers available. So where's the truth ? If there exist some dataflow
  23125. computers : is there any specification around for downloading (ftp) ?
  23126.  
  23127. Thanks for any replies !
  23128.  
  23129. -Peter-
  23130.  
  23131. E-Mail : Kohut1@urz.unibas.ch
  23132.  
  23133.  
  23134. Approved: parallel@hubcap.clemson.edu
  23135. Follow-up: comp.parallel
  23136. Path: bounce-back
  23137. Newsgroups: comp.parallel
  23138. Subject: [Q] Problem with parallel threads with 3L-C v 2.1.1
  23139. From: andreas@nlp.physik.th-darmstadt.de (Andreas Billo)
  23140. Reply-To: andreas@nlp.physik.th-darmstadt.de
  23141.  
  23142.  
  23143. Organization: Institut fuer Angewandte Physik, TH-Darmstadt, Germany
  23144. Follow-Up: comp.parallel
  23145. Date: Thu, 4 Nov 1993 16:40:30 GMT
  23146. Approved: parallel@hubcap.clemson.edu
  23147.  
  23148.    The program is starting four parallel threads.
  23149.    The thread RecS blocks the other threads in the 
  23150.    following condition,
  23151.    if the for-loop contains a lot of program code.
  23152.    Although the code is not executed.
  23153.    
  23154.    If we insert a break condition in the for-loop,
  23155.    the other threads are executed after finishing
  23156.    the for-loop.
  23157.  
  23158.    Thanks for any ideas and hints.
  23159.  
  23160.    andreas
  23161.  
  23162.  
  23163.    main()
  23164.    {
  23165.     StartAdr2=malloc( 300000 );
  23166.     thread_start( FMain1, StartAdr2, 10000, ... );
  23167.     thread_start( FMain2, StartAdr2+10000, 10000, ... );
  23168.     thread_start( FMain3, StartAdr2+20000, 10000, ... );
  23169.    }
  23170.  
  23171.    void FMain1( StartAdr )
  23172.    char *StartAdr;
  23173.    {
  23174.     ...
  23175.     thread_start( .. )
  23176.     thread_start( .. )
  23177.     thread_start( RecS, StartAdr2+50000, 10000,  ... )
  23178.    }
  23179.  
  23180.    void FMain2( StartAdr )
  23181.    char *StartAdr;
  23182.    {
  23183.     ...
  23184.     par_print("...");
  23185.    }
  23186.  
  23187.    void FMain3( StartAdr )
  23188.    char *StartAdr;
  23189.    {
  23190.     ...
  23191.     par_print("...");
  23192.    }
  23193.  
  23194.    void RecS( ... )
  23195.    {
  23196.     ...
  23197.  
  23198.     for(;;){
  23199.       if (1 == 2) {
  23200.       code};
  23201.     };
  23202.    }
  23203.  
  23204.  
  23205.  
  23206.  
  23207. ---
  23208.  
  23209. ---------------------------------------------------------
  23210. |                            |
  23211. |   Name:         Andreas Billo                |
  23212. |   Organization: Institut fuer Angewandte Physik    |
  23213. |                 Nichtlineare Physik            |
  23214. |                 TH Darmstadt                |
  23215. |   Address:      Schlossgartenstr. 7            |
  23216. |   City:         64289 Darmstadt            |
  23217. |   Country:      Germany                |
  23218. |   Phone:          +49 - +6151 - 164086            |
  23219. |   Fax:          +49 - +6151 - 164534            |
  23220. |   Internet:     andreas@nlp.physik.th-darmstadt.de    |
  23221. |                            |
  23222. ---------------------------------------------------------
  23223.  
  23224.    IBM: Iesus Babbage Mundi, Iesum Binarium Magnificamur.
  23225.    AMDG: Ad Maiorem Dei Gloriam? Von wegen Ars Magna,
  23226.    Digitale Gaudium! IHS: Iesus Hardware & Software!
  23227.  
  23228.                                          Casaubon
  23229.  
  23230.  
  23231.  
  23232.  
  23233. Approved: parallel@hubcap.clemson.edu
  23234. Follow-up: comp.parallel
  23235. Path: bounce-back
  23236. Newsgroups: comp.parallel
  23237. From: golabb@cs.curtin.edu.au (Bart Golab)
  23238. Subject: Mapping binary trees onto a mesh
  23239. Organization: Curtin University of Technology
  23240. Keywords: binary trees, meshes
  23241.  
  23242. Hello,
  23243.      I am in need of help.  I am currently working on a project which involves embedding
  23244.      binary trees into (faulty) meshes.  However, I have great difficulty finding articles
  23245.      on this subject (I suspect not much work has been done in this particular area).  
  23246.      Is there anybody out there who is also involved with mapping of different multiprocessor
  23247.      architectures?  If you have references of books, journal articles or anything that
  23248.      discusses mapping of binary trees onto faulty/non-faulty meshes (or vice versa), I would
  23249.      gladly hear from you.  I really hope someone can help me out in this matter.  To those
  23250.      who can, thanks in advance.
  23251.  
  23252.                                                    ............. Bart
  23253.  
  23254. ---------------------------------------------------------------------------------------------
  23255. Bart Golab
  23256. Curtin University of Technology
  23257. School of Computing
  23258. Department of Computer Science
  23259. Perth, Western Australia
  23260. Approved: parallel@hubcap.clemson.edu
  23261. Follow-up: comp.parallel
  23262. Path: bounce-back
  23263. Newsgroups: comp.parallel
  23264. From: stgprao@st.unocal.COM (Richard Ottolini)
  23265. Subject: Re: AI and Parallel Machines
  23266. Message-ID: <1993Nov5.153315.2624@unocal.com>
  23267. Organization: Unocal Corporation
  23268.  
  23269.  
  23270. In article <1993Nov4.152811.24420@hubcap.clemson.edu> angelo@carie.mcs.mu.edu (Angelo Gountis) writes:
  23271. >Hello All,
  23272. >
  23273. >I am looking for references regrading the impact parallel processing has  
  23274. >had on projects involving AI.  I realize this is rather vague but I have  
  23275. >not been able to narrow it down much from the information I have found as  
  23276. >of now.  I want to approach this from the angle of what parallel  
  23277. >processing has allowed AI to achieve that would not be fessible/possible  
  23278. >with out it.
  23279.  
  23280. Thinking Machines started as an A.I. company.
  23281. They are one of the more successful parallel computing companies.
  23282. There customer base is more scientific computing these days.
  23283.  
  23284. Approved: parallel@hubcap.clemson.edu
  23285. Follow-up: comp.parallel
  23286. Path: bounce-back
  23287. Newsgroups: comp.parallel
  23288. From: sabu@panix.com (Sabu Bhatia)
  23289. Subject: Linda for ALPHA(AXP)/OPENvms
  23290. Organization: PANIX Public Access Internet and Unix, NYC
  23291.  
  23292. Hi,
  23293.  
  23294.  
  23295.   Does anyone know if "Linda" has been ported to ALPHA(AXP)/OPNvms. If it
  23296. has been an ftp site or vendor name/phone number shall be greatly
  23297. appreciated.
  23298.  
  23299.  
  23300. best regards,
  23301.  
  23302.  
  23303. sabu
  23304.  
  23305.  
  23306. Approved: parallel@hubcap.clemson.edu
  23307. Follow-up: comp.parallel
  23308. Path: bounce-back
  23309. Newsgroups: comp.parallel
  23310. From: bina@cs.buffalo.edu (Bina Ramamurthy)
  23311. Subject: message rate
  23312. Sender: nntp@acsu.buffalo.edu
  23313. Nntp-Posting-Host: centaur.cs.buffalo.edu
  23314. Organization: State University of New York at Buffalo/Comp Sci
  23315. Date: Fri, 5 Nov 1993 16:55:02 GMT
  23316. Apparently-To: comp-parallel@cis.ohio-state.edu
  23317.  
  23318. I am simulating Error detection and Recovery in a distributed system.
  23319. Please email me references that will give me some idea about the
  23320. realistic message rates (range) ? I will summarize the responses.
  23321.  
  23322. bina
  23323.  
  23324. Bina Ramamurthy 
  23325. bina@cs.buffalo.edu
  23326.  
  23327. Approved: parallel@hubcap.clemson.edu
  23328. Follow-up: comp.parallel
  23329. Path: bounce-back
  23330. Newsgroups: comp.parallel
  23331. From: bellcore!flash.bellcore.com!bhatt@uunet.UU.NET (Sandeep Bhatt)
  23332. Subject: DIMACS Implementation Challenge III
  23333. Organization: /u/bhatt/.organization
  23334.  
  23335.  
  23336.  
  23337.                          Call for Participation
  23338.  
  23339.                     THE THIRD DIMACS INTERNATIONAL
  23340.                   ALGORITHM IMPLEMENTATION CHALLENGE
  23341.  
  23342.  
  23343. In conjunction with its Special Year on Parallel Computing, the Center
  23344. for Discrete Mathematics and Theoretical Computer Science (DIMACS)
  23345. invites participation in an international Implementation Challenge to
  23346. study effective parallel algorithms for combinatorial problems.  The
  23347. Implementation Challenge will take place between November 1993 and
  23348. September 1994.  Participants are invited to carry out research projects
  23349. related to the problem areas specified below and to present research
  23350. papers at a DIMACS workshop to be held in October 1994.  A refereed
  23351. workshop proceedings will be published.
  23352.  
  23353.  
  23354. RESEARCH PROJECTS.  
  23355.  
  23356. The use of massive parallelism in discrete combinatorial applications
  23357. has received far less attention than numerical applications.  Despite
  23358. the large body of theoretical work on parallel algorithms for
  23359. combinatorial problems, it is unclear what kinds of parallel algorithms
  23360. will be most effective in practice.
  23361.  
  23362. The goal of this challenge is to provide a forum for a concerted effort
  23363. to study effective algorithms for combinatorial problems, and to
  23364. investigate the opportunities for massive speedups on parallel
  23365. computers.
  23366.  
  23367. The challenge will include two problem areas for research study.
  23368.  
  23369. 1. Tree searching algorithms
  23370.     Examples:  game trees, combinatorial optimization. 
  23371.  
  23372. 2. Parallel algorithms for sparse and dynamic graphs 
  23373.     Examples: minimum spanning trees, shortest paths.
  23374.  
  23375. Participants are welcome to select applications other than the examples
  23376. given above.  The aim should be to pick an application which presents
  23377. clear technical obstacles to naive parallelization, and to pick large
  23378. problem instances to warrant the use of massive parallelism.
  23379.  
  23380. DIMACS SUPPORT.  The DIMACS advisory committee will provide feedback on
  23381. proposals, and DIMACS facilities will serve as a clearing house for
  23382. exchange of programs and communication among researchers.  DIMACS cannot
  23383. provide financial support for research projects.  DIMACS is currently
  23384. investigating possibilities for participants to access massively
  23385. parallel processors at the NSF Supercomputing Centers across the US.
  23386.  
  23387. HOW TO PARTICIPATE.  For more information about participating in the
  23388. Implementation Challenge, send a request for the document "General
  23389. Information" (available November 15, 1993) to
  23390.                  challenge3@dimacs.rutgers.edu.  
  23391. Request either LaTeX format (sent through email) or hard copy (sent
  23392. through U. S. Mail), and include your return address as appropriate.
  23393. Challenge materials will also be available via anonymous FTP from
  23394. DIMACS, and we expect most communication with respect to the Challenge
  23395. to take place over the Internet.
  23396.  
  23397. ADVISORY BOARD.  A committee of DIMACS members will provide general
  23398. direction for the Implementation Challenge.  Committee members include
  23399. Sandeep Bhatt, Bellcore and Rutgers University (Coordinator) 
  23400. David Culler, U.C. Berkeley
  23401. David Johnson, ATT-Bell Laboratories
  23402. S. Lennart Johnsson, Thinking Machines Corp. and Harvard University 
  23403. Charles Leiserson, MIT
  23404. Pangfeng Liu, DIMACS.
  23405.  
  23406. Approved: parallel@hubcap.clemson.edu
  23407. Follow-up: comp.parallel
  23408. Path: bounce-back
  23409. Newsgroups: comp.parallel
  23410. From: prakash@cis.ohio-state.edu (ravi prakash)
  23411. Subject: Re: CS 6400
  23412. Organization: The Ohio State University Dept. of Computer and Info. Science
  23413. References: <1993Oct27.172532.20787@hubcap.clemson.edu> <1993Nov1.160439.1200@unocal.com>
  23414.  
  23415. The specifications of CS 6400 indicate a 1.3 gigabytes/sec peak memory 
  23416. bandwidth. I assume that's the bandwidth of the central memory. 
  23417.  
  23418. I would like to know the I/O bandwidth between the online disk storage and the 
  23419. central memory?
  23420.  
  23421. ---------------------------------------------------------------------------
  23422. Ravi Prakash                    prakash@cis.ohio-state.edu
  23423. Department of Computer and Information Science,
  23424. The Ohio State University
  23425. Columbus, OH 43210.
  23426.  
  23427.  
  23428. Approved: parallel@hubcap.clemson.edu
  23429. Follow-up: comp.parallel
  23430. Path: bounce-back
  23431. Newsgroups: comp.arch,comp.parallel
  23432. From: lkaplan@tera.com (Larry Kaplan)
  23433. Subject: Re: Reference pointer
  23434. Organization: /etc/organization
  23435. References: <1993Nov4.164216.4237@hubcap.clemson.edu>
  23436.  
  23437. In article <1993Nov4.164216.4237@hubcap.clemson.edu> Andre.Seznec@irisa.fr (Seznec Andre) writes:
  23438. >I am needing a pointer to the following paper:
  23439. >
  23440. >"A flexible interleaved memory design for generalized low conflict memory access", by L.S. Kaplan
  23441. >
  23442.  
  23443. This paper appears in the Proceedings of The 6th Distributed Memory Computer
  23444. Conference (DMCC6):
  23445.  
  23446. @InProceedings{Kapl,
  23447.         Author={L. Kaplan},
  23448.         Title="A Flexible Interleaved Memory Design for Generalized Low
  23449.                 Conflict Memory Access",
  23450.         BookTitle={The Sixth Distributed Memory Computing Conference},
  23451.         Pages={637-644},
  23452.         Year={1991}}
  23453.  
  23454. Thanks for your interest.  Note that this paper roughly describes the
  23455. BBN TC2000 interleaver, not the Tera interleaver.  Another paper probably
  23456. needs to be written about the Tera.
  23457.  
  23458. Laurence S. Kaplan           ///      //////   ////////   ///  ///
  23459. Tera Computer Co.          ///      ///      /// ///    ///   ///
  23460. 400 N. 34th St. Suite 300     ///      ///////  ///  ///   //////////
  23461. Seattle, WA  98103                                ///          ///
  23462. Approved: parallel@hubcap.clemson.edu
  23463. Follow-up: comp.parallel
  23464. Path: bounce-back
  23465. Newsgroups: comp.parallel
  23466. From: prakash@cis.ohio-state.edu (ravi prakash)
  23467. Subject: Locality of code
  23468. Organization: The Ohio State University Dept. of Computer and Info. Science
  23469.  
  23470. Would anybody please answer two questions for me :
  23471.  
  23472. 1. What degree of locality has been observed in parallel code, i.e., if the
  23473.    number of instructions executed in a task is x, then what function of
  23474.    x is the actual number of instructions in the task(code size)?
  23475.  
  23476. 2. What speeds, and degrees of code compression have been achieved thus far?
  23477.    If the code size is y megabytes, and the size of the compressed code is
  23478.    y', then what is the ratio between y and y', how much time is required to
  23479.    compress y megabytes of code and the the speed of the computer used to 
  23480.    do the compression. 
  23481.  
  23482. Thanks,
  23483. -------------------------------------------------------------------------------
  23484. Ravi Prakash                                      Office : Bolz Hall, #319b
  23485. prakash@cis.ohio-state.edu                        Phone  : (614)292-5236 - Off.
  23486. Department of Computer & Information Science,     Fax    : (614)292-2911
  23487. The Ohio State University, Columbus, OH 43210
  23488. -------------------------------------------------------------------------------
  23489.  
  23490.  
  23491.  
  23492. Approved: parallel@hubcap.clemson.edu
  23493. Follow-up: comp.parallel
  23494. Path: bounce-back
  23495. Newsgroups: comp.parallel
  23496. From: sandeep@karp.albany.edu (Sandeep Kumar Shukla)
  23497. Subject: system.config file for a network of SUN3s and SPARCs
  23498. Organization: Computer Science Department SUNYA at Albany NY 12222
  23499.  
  23500. Hi,
  23501.  
  23502. I have installed the the Distributed C which is available from the
  23503. INSTITUT FUR INFORMATIK (Munchen). After the installation I am
  23504. having some problem in the dcinstall program. Basically the problem
  23505. is related to the system.config file. We have a number of SUN3 and a
  23506. few SPARCs on our Network. I have followed the format of the
  23507. system.config file in the manual provided with the package.
  23508.  
  23509. The error message that I am getting says " The Local Host
  23510. not specified in the Configuration file." I talked to the system
  23511. administrator and he said that the fixed disk entry of the config
  23512. file is not clear. Shouldnot that mention the partition of the file
  23513. system where I have the access?
  23514.  
  23515. I will be extremely grateful if some body can send me a sample
  23516. configuration file for the Distributed C which is installed for a
  23517. Network of SUN3 and SPARC stations and where the file system is
  23518. on a machine called cook.
  23519.  
  23520. Thanks
  23521.  
  23522. Sandeep Shukla
  23523.  
  23524. Department of Computer Science
  23525. State University of NewYork at Albany
  23526. US
  23527.  
  23528. email : sandeep@cs.albany.edu
  23529.  
  23530.  
  23531.  
  23532.  
  23533.  
  23534.  
  23535.  
  23536.  
  23537.  
  23538. Approved: parallel@hubcap.clemson.edu
  23539. Follow-up: comp.parallel
  23540. Path: bounce-back
  23541. From: kamratha@dopey.sdsc.edu (Anke Kamrath)
  23542. Newsgroups: comp.parallel,comp.sys.super,comp.unix.cray
  23543. Subject: Cray User Group Meeting - Spring '94, First Announcement
  23544. Organization: San Diego Supercomputer Center
  23545.  
  23546. ******************************************************
  23547. ******************************************************
  23548. ******************************************************
  23549. ***        FIRST ANNOUNCMENT                  ***
  23550. ***                                     ***
  23551. ***        CRAY USER GROUP                    ***
  23552. ***        Spring '94 Conference              ***
  23553. ***                                     ***
  23554. ***        March 14-18, 1994                  ***
  23555. ***        San Diego, California              ***
  23556. ***                                      ***
  23557. ***        LOCAL ARRANGEMENTS                 ***
  23558. ******************************************************
  23559. ******************************************************
  23560. ******************************************************
  23561.  
  23562. Dear Colleague,
  23563.  
  23564. The San Diego Supercomputer Center (with assistance from The Scripps Research 
  23565. Institute, Cray Research, Inc., and Cray Superserver Research, Inc.) is 
  23566. pleased to invite you to attend the Cray User Group Conference in San Diego, 
  23567. California, March 14-18, 1994. The theme of this year9s conference is 
  23568. Unparalleled Horizons.
  23569.  
  23570. To help you with arrangements, this brochure contains information about:
  23571.  
  23572.    Conference registration
  23573.    How to submit abstracts for conference papers and posters
  23574.    San Diego area
  23575.    Conference hotel and how to make reservations
  23576.  
  23577. Spring is a beautiful time of year in San Diego. Whether you like the ocean, 
  23578. the mountains, or the desert, all are nearby. So join us in San Diego, and 
  23579. expect a rewarding experience personally as well as professionally.
  23580.  
  23581. You will receive the final local arrangements brochure with details of 
  23582. the technical programs in January. If you have any questions, please 
  23583. contact us.  We9ll see you in March. 
  23584.  
  23585. Sincerely,
  23586.  
  23587. Anke Kamrath
  23588.  
  23589. Local Arrangements Chairperson
  23590. San Diego CUG
  23591. San Diego Supercomputer Center
  23592.  
  23593. LOCATION:  Princess Hotel Convention Center, San Diego, California
  23594.  
  23595. IMPORTANT DATES
  23596. Conference:                 March 14-18, 1994
  23597. Early Conference Registration Deadline: January 15, 1994
  23598. Hotel Registration Deadline:        February 10, 1994
  23599. Papers and Posters Deadline:         December 10, 1993
  23600. Late Conference Registration Deadline:  February 18, 1994
  23601. Last Day to Cancel:             February 18, 1994
  23602.  
  23603. SPONSORED BY THE SAN DIEGO SUPERCOMPUTER CENTER
  23604. A National Laboratory for Computational Science and Engineering
  23605.  
  23606. To the members of CUG:
  23607.  
  23608. It is my pleasure to cordially invite you to attend the 33rd Cray User 
  23609. Group meeting in San Diego, California, March 14-18, 1994. This years 
  23610. theme "Unparalleled Horizons"  will challenge us all as we look ahead to 
  23611. unequaled progress in high-performance computing technology.
  23612.  
  23613. Calls for Papers and Posters for the Conference are included at the back 
  23614. of this brochure. The deadline for abstracts and poster descriptions is 
  23615. December 10, 1993. Papers are presented in 30-minute time slots as a part 
  23616. of a topical formal session. The poster session is an opportunity to 
  23617. present your work in an informal, unstructured setting using a visual 
  23618. representation (a poster) rather than a paper. There will be an award 
  23619. for the best poster presentation. 
  23620.  
  23621. The Program Committee is planning a stimulating agenda. In addition to 
  23622. the successful Monday morning tutorials, the first day of the Conference 
  23623. will include a "What is CUG" discussion and an Advisory Council meeting. 
  23624. Tuesday morning, Astronaut Sally Ride will be Keynote Speaker. General 
  23625. sessions and special interest tracks will be held each day. The Conference 
  23626. concludes Friday at noon.
  23627.  
  23628. Birds-Of-a-Feather (BOF) sessions will be scheduled to bring together 
  23629. those people interested in discussing specific issues. If you wish to 
  23630. organize a BOF at the Conference, please contact me. A room for BOFs 
  23631. will be available.
  23632.  
  23633. We welcome you and hope to see you in San Diego. 
  23634.  
  23635. Jean Shuler
  23636.  
  23637. Program Chairperson
  23638. CUG Vice President
  23639. Lawrence Livermore National Laboratory
  23640.  
  23641.  
  23642. ** CONFERENCE INFORMATION **
  23643.  
  23644. LOCATION:
  23645. San Diego Princess Hotel Convention Center
  23646. 1404 West Vacation Road
  23647. San Diego, CA 92109
  23648. Conference Office
  23649.  
  23650. For general arrangements, conference registration, payment, and 
  23651. technical questions:
  23652.  
  23653. Until March 11, 1994
  23654.  
  23655. San Diego Supercomputer Center
  23656. CUG San Diego
  23657. P.O.Box 85608
  23658. San Diego, CA 92186-9784
  23659. Phone:     1-619-534-8333
  23660. Fax:     1-619-534-5152 
  23661. TDD :    1-619-534-5001 
  23662. E-mail: sdcug@sdsc.edu
  23663.  
  23664. >From  March 13-18
  23665.  
  23666. San Diego Princess Hotel 
  23667. Convention Center
  23668. Phone:    1-619-274-7141
  23669. Fax:     1-619-581-5908
  23670.  
  23671.  
  23672. PROGRAM, PAPERS, AND POSTERS
  23673.  
  23674. A preliminary conference program will be included in the January mailing, 
  23675. and the technical program will be finalized shortly before the conference. 
  23676. To submit a paper or poster, return the Call for Papers and Call for Posters 
  23677. forms at the end of this brochure as directed. All questions regarding the 
  23678. program should be directed to the Program Chairperson. 
  23679.  
  23680. REGISTRATION
  23681.  
  23682. Register as soon as possible to help the Local Arrangements Committee plan a 
  23683. well-organized conference. All conference registrations postmarked on or 
  23684. before January 15, 1994 are eligible for the reduced registration fee. We 
  23685. encourage all attendees to take advantage of this reduced fee. 
  23686.  
  23687. All registrations, with payment, must be postmarked on or before February 
  23688. 18th, 1994, using airmail, first-class postage. Confirmation will be sent 
  23689. after payment is received. 
  23690.  
  23691. CANCELLATION
  23692.  
  23693. Cancellation requests received by the CUG office on or before 
  23694. February 18, 1994 will be refunded in full. Cancellations received after 
  23695. February 18 will not be refunded.
  23696.  
  23697. REGISTRATION DESK
  23698.  
  23699. Pick up your registration materials and a conference badge at the Registration 
  23700. Desk in the Princess Convention Center in the Princess Ballroom foyer. You 
  23701. must wear the conference badge to participate in CUG sessions and events. 
  23702.  
  23703. CONFERENCE OFFICE HOURS
  23704.  
  23705. Sunday, March 13         4:00 pm to 7:00 pm
  23706. Monday, March 14         8:00 am to 7:00 pm
  23707. Tuesday, March 15         8:00 am to 6:00 pm
  23708. Wednesday, March 16         8:00 am to 5:30 pm
  23709. Thursday, March 17         8:00 am to 5:00 pm
  23710. Friday, March 18         8:00 am to 12:30 am
  23711.  
  23712. ** FACILITIES ***
  23713.  
  23714. MESSAGES
  23715.  
  23716. The conference office at the Princess Hotel will be staffed throughout the 
  23717. conference to assist with special requirements. Incoming telephone calls 
  23718. may be directed to the office at 1-619-274-7141. Messages will be posted 
  23719. near the registration area.
  23720.  
  23721. E-MAIL AND PERSONAL COMPUTERS
  23722.  
  23723. VT100 compatible terminals will be available to allow participants to send 
  23724. and receive e-mail and use the Internet. A Macintosh with Persuasion, 
  23725. MS Word, MS Excel, and MacDraw II and a printer will be available.
  23726.  
  23727. COPYING
  23728.  
  23729. A copy machine will be available for making limited copies. If you have 
  23730. handouts or documentation to distribute at the conference, please bring a 
  23731. sufficient number of copies with you.
  23732.  
  23733. DINING SERVICES
  23734.  
  23735. Refreshment will be available during breaks throughout the conference. 
  23736. Breakfast will be served Tuesday through Friday, and lunch Tuesday through 
  23737. Thursday. Food and drinks will be served at each of the social events. 
  23738. Special dietary requirements should be specified on the conference 
  23739. registration form. There are restaurants and bars located on the hotel 
  23740. grounds. If you are interested in sampling some of San Diego's excellent 
  23741. Mexican and Californian cuisine, ask the Concierge for recommendations.
  23742.  
  23743. SPECIAL NEEDS
  23744.  
  23745. The Princess Hotel is in compliance with the American Disabilities Act 
  23746. (ADA). If you have any special needs, please indicate them on the 
  23747. conference registration form.
  23748.  
  23749. ** HOTEL INFORMATION **
  23750.  
  23751. The conference hotel is the San Diego Princess Hotel and Conference Center, 
  23752. located in the center of San Diego on a forty-four acre island in Mission 
  23753. Bay. The accommodations consist of bungalows nestled among beautiful lagoons 
  23754. and lush tropical landscaping. A block of rooms at a special conference 
  23755. rate has been reserved (including a limited number at a government rate). 
  23756. The conference room rates are only available for reservations made before 
  23757. February 10, 1994. We recommend that you stay at the Princess, as there are 
  23758. no other hotels within walking distance. If the room block is filled, the 
  23759. hotel will attempt to locate you at another nearby hotel. Room rates at 
  23760. other hotels cannot be guaranteed. Given the likelihood that attendance 
  23761. at the conference will be large, we recommend you reserve your room as 
  23762. soon as possible. For your convenience, use the Hotel Registration form 
  23763. at the end of this brochure.
  23764.  
  23765. ** TRANSPORTATION **
  23766.  
  23767. San Diego is a large city, and public transportation is not very practical 
  23768. to get around the area. If you plan to explore San Diego or sightsee 
  23769. during your stay, we recommend you rent a car.
  23770.  
  23771. The San Diego International Airport (Lindbergh Field) is within 10 minutes 
  23772. drive of the Princess Hotel. 
  23773.  
  23774. SUPERSHUTTLE OR TAXI
  23775.  
  23776. If you do not rent a car at the airport, we recommend you use SuperShuttle 
  23777. to get to the Princess Hotel from the airport. The Shuttle cost is $6.00 
  23778. each way. To arrange for the shuttle:
  23779.  
  23780. Find the hotel courtesy phoneboard located in the baggage claim area. 
  23781. Press #69 and the operator will direct you to the nearby SuperShuttle 
  23782. loading area. Or call 278-5700 from any public telephone.
  23783.  
  23784. When returning to the airport, make advance reservations for SuperShuttle. 
  23785. Ask the Concierge or front desk to book your return reservation, or call 
  23786. 278-8877 to make a reservation yourself. 
  23787.  
  23788. Taxis are available immediately outside the baggage claim area at the 
  23789. airport. The taxi fare to the Princess is about $10.00.
  23790.  
  23791. DIRECTIONS
  23792.  
  23793. FROM AIRPORT
  23794.  
  23795. If you are driving from the airport, take Harbor Drive South (towards 
  23796. downtown San Diego) to Grape Street. At the light turn left. Follow the 
  23797. signs to Interstate 5 North. Take Interstate 5 North to Sea World Drive. 
  23798. At the top of the offramp at the light, turn left and go over the bridge 
  23799. onto Sea World Drive. Follow Sea World Drive to West Mission Bay 
  23800. Drive/Ingraham Street. Veer to the right. Stay on Ingraham until you 
  23801. reach West Vacation Road, where you will see the sign for the San Diego 
  23802. Princess Hotel. Turn left into the hotel grounds.
  23803.  
  23804. FROM LOS ANGELES
  23805.  
  23806. If you are driving from the Los Angeles area, take Interstate 5 South to 
  23807. Sea World Drive. At the top of the offramp at the light turn right. 
  23808. Follow Sea World Drive to West Mission Bay Drive/Ingraham Street. Veer to 
  23809. the right. Stay on Ingraham until you reach West Vacation Road, where you 
  23810. will see the sign for the San Diego Princess Hotel. Turn left into the 
  23811. hotel grounds.
  23812.  
  23813. TRAVEL TO MEXICO
  23814.  
  23815. Persons with U.S. citizenship may freely visit nearby Mexico (17 miles 
  23816. from downtown) with only normal identification. 
  23817.  
  23818. If you are not a U.S. citizen, you9ll need to carry your passport and 
  23819. have a multiple entry visa for the U.S. to visit Mexico. If you leave 
  23820. the U.S. with a single entry visa, you will not be able to return to the 
  23821. U.S. from Mexico; this is considered a second entry.
  23822.  
  23823. ** SOCIAL EVENTS **
  23824.  
  23825. CRI RECEPTION
  23826.  
  23827. All participants and guests are invited to a Monday evening reception 
  23828. sponsored by CRI.  Newcomer9s Reception
  23829.  
  23830. All new CUG member sites and first-time CUG attendees are invited to a 
  23831. reception Tuesday evening on the Governor9s Lawn.
  23832.  
  23833. NIGHT-OUT
  23834.  
  23835. The traditional CUG Night Out on Wednesday (6:00 until 10:15) is a cruise 
  23836. on San Diego Bay with dinner, music, and spectacular views of San Diego's 
  23837. downtown skyline and Coronado Bridge. The Night Out is included with 
  23838. registration, but additional tickets for guests must be purchased separately. 
  23839. Register and purchase any additional tickets as early as possible to 
  23840. guarantee space for guests.
  23841.  
  23842. GUEST PROGRAMS, TOURS, AND OTHER ACTIVITIES
  23843.  
  23844. If you plan to extend your stay and vacation in San Diego, the Princess 
  23845. Hotel offers many activities, including 
  23846.  
  23847.   Botanical walks around the island
  23848.   18-hole golf course
  23849.   Fitness Center
  23850.   Jogging and par course
  23851.   Bicycles and Quadracycles
  23852.   Tennis courts
  23853.   Swimming pools and whirlpools
  23854.   Shuffleboard
  23855.   Croquet course
  23856.   Wind surfing, sailing, and power and paddle boats
  23857.  
  23858. Some of these activities are free, and others are provided at an additional 
  23859. cost. Ask the Concierge for information about their fitness programs and 
  23860. recreation pass.
  23861.  
  23862. The Princess Hotel Concierge staff is also available to assist you with 
  23863. dinner reservations, directions, and tours. Discounted tickets for the San 
  23864. Diego Zoo, Wild Animal Park, and Sea World can be purchased from the 
  23865. Concierge Desk on the day you visit each attraction. The staff can also 
  23866. arrange fishing, scuba diving, water skiing, or golf at one of several 
  23867. championship courses located within 30 minutes of the hotel.
  23868.  
  23869. Shopping opportunities in the area include Seaport Village on San Diego 
  23870. Bay, Horton Plaza in downtown San Diego, and Old Town. You will need 
  23871. transportation to and from these areas, so plan to rent a car or hire a 
  23872. taxi.
  23873.  
  23874. CLIMATE/CLOTHING
  23875.  
  23876. San Diego has mild temperatures all year round. You rarely need a topcoat 
  23877. or raincoat. Evenings can be cool, so bring a sweater or jacket. The 
  23878. temperatures in March can be warm, so shorts and swimwear may be 
  23879. desirable. Average temperatures range from 50-66 F (or 10-19 C). 
  23880.  
  23881. Most San Diego restaurants welcome casual attire.
  23882.  
  23883. ** REGISTRATION INFORMATION **
  23884.  
  23885. REGISTRATION
  23886.  
  23887. Complete the registration form (next page) and mail or fax it to CUG San 
  23888. Diego. Conference fees are due with your registration. All payment must be 
  23889. in U.S. dollars from checks drawn on U.S. banks or by electronic funds 
  23890. transfer. Credit cards or invoices are not accepted.
  23891.  
  23892. PAYMENT BY CHECK 
  23893.  
  23894. Make checks payable to "CUG San Diego". Indicate your CUG site code on 
  23895. your check, and send it with your registration form. Be sure all currency 
  23896. conversions and transmission costs have been paid by your installation 
  23897. site. 
  23898.  
  23899. PAYMENT BY ELECTRONIC FUNDS TRANSFER
  23900.  
  23901. You may pay conference fees by transferring the appropriate amount (increased 
  23902. by $8.50 to cover the transfer fee) to:
  23903.  
  23904. CUG San Diego
  23905. Bank of America
  23906. La Jolla Plaza Branch # 1102
  23907. 4380 La Jolla Village / 100
  23908. San Diego, CA 92122
  23909.  
  23910. Account # 11027 04167
  23911.  
  23912. Routing # 121000358
  23913.  
  23914. Be sure to include your name and site on the order. Send a copy of the 
  23915. transfer order with your registration form.
  23916.  
  23917. ADDRESSES
  23918.  
  23919. Local Arrangements:
  23920.    Chairperson:  Anke Kamrath
  23921.    Coordinator:  Ange Mason
  23922.  
  23923.    CUG San Diego
  23924.    San Diego Supercomputer Center
  23925.    P.O.Box 85608
  23926.    San Diego, CA 92186-9784
  23927.    USA
  23928.  
  23929.    Phone: 1-619-534-8333
  23930.    Fax:   1-619-534-5152
  23931.    TDD:      1-619-534-5001
  23932.    E-Mail: sdcug@sdsc.edu
  23933.  
  23934. Program:
  23935.    Chairperson:  Jean Shuler
  23936.  
  23937.    National Energy Research Supercomputer Center (NERSC)
  23938.    P.O.Box 5509 L-561
  23939.    Lawrence Livermore National Laboratory
  23940.    Livermore, CA 94551
  23941.    USA
  23942.  
  23943.    Phone: 1-510-423-1909
  23944.    Fax:   1-510-422-0435
  23945.    E-Mail: shuler@nersc.gov
  23946.  
  23947. ** CONFERENCE REGISTRATION FORM **
  23948.  
  23949. Early Registration Deadline:  January  15, 1994
  23950. Late Registration Deadline:   February 18, 1994
  23951.  
  23952. Please type or block print separate registration forms for each
  23953. Conference attendee.  Mail or fax the registration with a check or a
  23954. copy of a funds transfer order to the following address:
  23955.  
  23956.         CUG San Diego, Ange Mason
  23957.         San Diego Supercomputer Center
  23958.         P.O. Box 85608
  23959.         San Diego, CA 92186-9784  USA
  23960.  
  23961.         Phone: 1-619-534-8333,  Fax: 1-619-534-5152
  23962.         TDD:   1-619-534-5001
  23963.  
  23964. __________________________________________________________________________
  23965. Full Name (Last, First)
  23966.  
  23967. __________________________________________________________________________
  23968. Organization Name            CUG Site Code (Mandatory)
  23969.  
  23970. __________________________________________________________________________
  23971. Department*                Mail Stop
  23972.  
  23973. __________________________________________________________________________
  23974. Signature of Installation Delegate     CUG Site Code
  23975. (If not employed by member site or CUG)
  23976.  
  23977. __________________________________________________________________________
  23978. Address
  23979.  
  23980. __________________________________________________________________________
  23981. City                State/Province    Postal/Zip Code     Country
  23982.  
  23983. __________________________________________________________________________
  23984. Daytime Phone (Country,Area Code,Number)  Fax (Country,Area Code,Number)
  23985.  
  23986. __________________________________________________________________________
  23987. Electronic Mail Address
  23988.  
  23989. __________________________________________________________________________
  23990. Guest Name
  23991.  
  23992. __________________________________________________________________________
  23993. Special Dietary Requirement (Please Specify)
  23994.  
  23995. __________________________________________________________________________
  23996. Other Special Needs (Please Specify)
  23997.  
  23998. __________________________________________________________________________
  23999. Emergency Contact and Phone Number
  24000.  
  24001. ___ Check here to have your name/address omitted from the official CUG
  24002.     Proceedings
  24003. ___ Check here if you are a new member or first-time attendee 
  24004.  
  24005.      Early Registration (before January 15, 1994)    $550
  24006.      Late Registration (between Jan.15-Feb.18,1994)    $600
  24007.   A. Registration fee:                        $ ______
  24008.  
  24009.      Additional copies of Proceedings            $ 30
  24010.   B. Additional Proceedings cost (quantity ___):        $ ______
  24011.  
  24012.      Additional guest tickets for Night Out        $100
  24013.   C. Additional guest ticket cost (number: ___):        $ ______
  24014.  
  24015.   D. For electronic funds transfer fee, add $8.50:        $ ______
  24016.  
  24017.   E. Payment due, in U.S. funds only (A + B + C + D):        $ ______
  24018.  
  24019. ** CALL FOR PAPERS ***
  24020.  
  24021. Deadline:  December 10, 1993
  24022.  
  24023. Please type or block print the information requested on this form. Mail 
  24024. or fax to the Program Chair:
  24025.  
  24026. Jean Shuler
  24027. National Energy Research Supercomputer Center
  24028. P.O. Box 5509 L-561
  24029. Lawrence Livermore National Laboratory
  24030. Livermore, CA 94551
  24031. USA
  24032.  
  24033. Phone:    1-510-423-1909
  24034. Fax:    1-510-422-0435
  24035. E-mail: shuler@nersc.gov
  24036.  
  24037.  
  24038. ____________________________________________________________________________
  24039. NAME
  24040.  
  24041. ____________________________________________________________________________
  24042. ORGANIZATION    CUG SITE CODE (MANDATORY)
  24043.  
  24044. ____________________________________________________________________________
  24045. DEPARTMENT    MAIL STOP
  24046.  
  24047. ____________________________________________________________________________
  24048. ADDRESS
  24049.  
  24050. ____________________________________________________________________________
  24051. CITY    STATE/PROVINCE    POSTAL/ZIP CODE    COUNTRY
  24052.  
  24053. ____________________________________________________________________________
  24054. Daytime Phone (Country,Area Code,Number)     Fax (Country,Area Code,Number):
  24055.  
  24056. ____________________________________________________________________________
  24057. ELECTRONIC MAIL ADDRESS
  24058.  
  24059. ____________________________________________________________________________
  24060. TITLE OF PAPER
  24061.  
  24062. ABSTRACT (TWO OR THREE SENTENCES)
  24063.  
  24064.  
  24065.  
  24066.  
  24067.  
  24068.  
  24069.  
  24070.  
  24071.  
  24072.  
  24073.  
  24074.  
  24075. AUDIO/VISUAL REQUIREMENTS
  24076.  
  24077.    Video 1/2": VHS/ NTSC, PAL, SECAM    
  24078.    Video 3/4" U-matic/NTSC    
  24079.    35 mm slide projector    
  24080.    Overhead Projector
  24081.    Other (specify): ______________________________________
  24082.  
  24083. SESSION IN WHICH YOU WISH TO PRESENT
  24084.  General Sessions    Operating Systems    Applications
  24085.  Operations        Networking        Performance
  24086.  Management        Software Tools        Graphics
  24087.  Mass Storage        Systems            User Services
  24088.  
  24089.  
  24090. ** CALL FOR POSTERS **
  24091.  
  24092. Deadline:  December 10, 1993
  24093.  
  24094. Please type or block print the information requested on this form. 
  24095. Mail or fax to:
  24096.  
  24097. Larry Eversole
  24098. JPL/Cal Tech
  24099. MS 301-455
  24100. 4800 Oak Grove Drive
  24101. Pasadena, CA 91109
  24102. USA
  24103.  
  24104. Fax:    1-818-393-1187
  24105. E-mail: eversole@voyager.jpl.nasa.gov
  24106.  
  24107.  
  24108. ____________________________________________________________________________
  24109. NAME
  24110.  
  24111. ____________________________________________________________________________
  24112. ORGANIZATION    CUG SITE CODE (MANDATORY)
  24113.  
  24114. ____________________________________________________________________________
  24115. DEPARTMENT    MAIL STOP
  24116.  
  24117. ____________________________________________________________________________
  24118. ADDRESS
  24119.  
  24120. ____________________________________________________________________________
  24121. CITY    STATE/PROVINCE    POSTAL/ZIP CODE    COUNTRY
  24122.  
  24123. ____________________________________________________________________________
  24124. Daytime Phone (Country,Area Code,Number)     Fax (Country,Area Code,Number):
  24125.  
  24126. ____________________________________________________________________________
  24127. ELECTRONIC MAIL ADDRESS
  24128.  
  24129. ____________________________________________________________________________
  24130. TITLE OF POSTER
  24131.  
  24132. _____________________________________________________________________________
  24133. SHORT DESCRIPTION
  24134.  
  24135.  
  24136.  
  24137.  
  24138.  
  24139.  
  24140.  
  24141.  
  24142.  
  24143.  
  24144.  
  24145. ROUGH MOCK-UP OF THE POSTER
  24146.  
  24147.  
  24148.  
  24149.  
  24150.  
  24151.  
  24152.  
  24153.  
  24154.  
  24155.  
  24156.  
  24157.  
  24158. ** HOTEL REGISTRATION **   CRAY USER GROUP Meeting, March 14-18,1994
  24159.  
  24160. Deadline: February 10, 1994
  24161.  
  24162. Please type or block print the information requested. Mail or fax it to 
  24163. the following address:
  24164.  
  24165. San Diego Princess Hotel
  24166. Accommodation Reservation Request
  24167. 1404 West Vacation Road
  24168. San Diego, California 92109-7994
  24169. USA
  24170.  
  24171. Phone:    1-619-274-4630      TDD:     1-619-274-4630
  24172. FAX:     1-619-581-5929 (Allow 24 hours for confirmation)
  24173.  
  24174.  
  24175. _____________________________________________________________________________
  24176. Last Name    First Name
  24177.  
  24178. _____________________________________________________________________________
  24179. Mailing Address
  24180.  
  24181. _____________________________________________________________________________
  24182. City    State/Province    Postal/ZIP Code    Country
  24183.  
  24184. _____________________________________________________________________________
  24185. Daytime Phone (Country,Area Code,Number)     Fax (Country,Area Code,Number):
  24186.  
  24187. _____________________________________________________________________________
  24188. Date of Arrival      Estimated time of arrival    Date of Departure
  24189.  
  24190.  Standard room rate    $120
  24191.  Government room rate*    $79 (Government ID required)
  24192.  Any additional persons    $15   (Number _________ )
  24193.  1 Bed ___  2 Beds ___  Smoking Room ___    Non-Smoking Room ____
  24194.  
  24195.  All rates subject to tax. Current tax is 9%.
  24196.  
  24197. * A limited number of government-rate rooms is available. If you qualify 
  24198.   for a government rate room please make your reservations as early as 
  24199.   possible to ensure a room at this rate.
  24200.  
  24201. Required: ONE NIGHT ROOM DEPOSIT INCLUDING TAX 
  24202.  
  24203. (A) Enclose a check in the amount of one night's lodging, (plus 9% tax), or 
  24204. (B) Complete the credit card information, and your account will be charged 
  24205.     in the amount of one night9s lodging, plus 9% tax, upon receipt by the 
  24206.     hotel. This deposit guarantees first night availability and will be 
  24207.     credited to the last night of your stay. An early check-out will forfeit 
  24208.     deposit. Be sure arrival and departure dates are correct. 
  24209.  
  24210. (A) Amount of enclosed check     $ _________________________
  24211.  
  24212. (B) Amount charged to credit card  $ _________________________
  24213.  
  24214.    VISA   MASTER CARD      Card number _______________________________
  24215.  
  24216.   Cardholder Name ______________________________
  24217.  
  24218.  
  24219. _____________________________________________________________________________
  24220. SIGNATURE                    CARD EXPIRATION DATE
  24221.  
  24222. o  Hotel check-in time and guestroom availability is 4:00 pm.
  24223. o  Check-out time is 12:00 noon.  For reservations made after February 
  24224.    10, 1994, or after the group block is filled, the hotel will extend 
  24225.    the group rate based upon availability.  If the Princess is sold 
  24226.    out, the hotel will refer you to a nearby hotel.
  24227.  
  24228. ___________________________________________________________________
  24229. SIGNATURE                        DATE
  24230.  
  24231. Approved: parallel@hubcap.clemson.edu
  24232. Follow-up: comp.parallel
  24233. Path: bounce-back
  24234. Newsgroups: comp.parallel
  24235. From: mitrovic@diego.llnl.gov (Srdjan Mitrovic)
  24236. Subject: Re: Teraflop and Dataflow Computers
  24237.  
  24238. Read your question on USENET and decided to try to answer it.
  24239.  
  24240. I believe that we are still away from Teraflop computations
  24241. for "normal" applications.
  24242. If anybody is going to reach it soon, than maybe it will
  24243. be the Tera parallel processor that should be released somewhere
  24244. in '94. The T9000 has been delayed much, I wonder how far
  24245. they got. It is a question at what scale a T9000 machine
  24246. can be build at all. Of course, it is possible to get Teraflop 
  24247. computation with embarassing parallelism when enough   
  24248. fast processors are interconnected 
  24249. (Internet as interprocess communication mechanism
  24250. would suffice). 
  24251.  
  24252. There have been several dataflow computers built, but the  
  24253. dynamic ones are far from being competitive. There are
  24254. static dataflow computers (like done by Gunzinger
  24255. at ETH Zuerich) that provide good result but lack
  24256. flexibility. I think that in signal processing we
  24257. will have some kind of simple static dataflow
  24258. computers implemented.
  24259.  
  24260. Most recent trends go toward a mixture of dataflow and
  24261. conventional architectures, the so-called multithreading
  24262. computers. I used to work in project ADAM at ETH Zuerich
  24263. where such kind of architecture has been developped.
  24264. Two soon-to-be commercialized multithreading
  24265. architectures are Tera and *T (Motorola).
  24266.  
  24267. Hope I helped a little bit.
  24268.  
  24269. Regards
  24270.  
  24271. Srdjan
  24272.  
  24273. Approved: parallel@hubcap.clemson.edu
  24274. Follow-up: comp.parallel
  24275. Path: bounce-back
  24276. Newsgroups: comp.parallel
  24277. From: stgprao@st.unocal.COM (Richard Ottolini)
  24278. Subject: Re: Teraflop and Dataflow Computers ?
  24279. Organization: Unocal Corporation
  24280. References: <1993Nov5.133445.9491@hubcap.clemson.edu>
  24281.  
  24282. In article <1993Nov5.133445.9491@hubcap.clemson.edu> kohut1@urz.unibas.ch writes:
  24283. >Recently I read an old magazine about supercomputing (it was published in
  24284. >1990 or so). There was an article about Teraflop computers which should be
  24285. >commercialiy available in 1993. Two approaches were mentioned : 1) a 
  24286. >new version of SIMD type Connection Machine and 2) an MIMD type European 
  24287. >Computer build of 64k Inmos T9000 Transputers. 
  24288. >I never heard about any success (or failures) of these projects. So : 
  24289. >are somewehre any Teraflop computers around yet ?
  24290. >
  24291. Two general purpose computers claim to have run code at 100+ Gigaflops in 1993:
  24292. The Intel Paragon and Fujitsu VP.
  24293. Following the 10-5 observation- 10x speed increase every 5 years- these are a
  24294. little ahead of the curve.
  24295.  
  24296. >My second question concernes Dataflow computers. In some literature somebody 
  24297. >wrote that a dataflow computer is still hypothetical and no such computer
  24298. >could be build till now.  Somebody else has written, that there ARE dataflow
  24299. >computers available. So where's the truth ? If there exist some dataflow
  24300. >computers : is there any specification around for downloading (ftp) ?
  24301.  
  24302. Superscalar chips implement some elements of dataflow in scheduling "simultaneous"
  24303. instructions.  No heavy duty commercial stuff yet outside of some samples
  24304. at MIT, Japan and a other places.
  24305.  
  24306. Approved: parallel@hubcap.clemson.edu
  24307. Follow-up: comp.parallel
  24308. Path: bounce-back
  24309. From: dbg@SLAC.Stanford.EDU (David Gustavson)
  24310. Subject: SCI coherence--RamLink I/O
  24311. Organization: SLAC Computation Research Group
  24312. Newsgroups: comp.arch,comp.parallel,comp.sys.super
  24313.  
  24314. SCI Coherence Works:
  24315.  
  24316. At the recent NASA-Ames Cluster Workshop, a well-known senior computer
  24317. architect said (approximately):
  24318.  
  24319. "Convex's use of SCI isn't a real test of SCI because Convex's SPP is only
  24320. using SCI as a transport mechanism and is not using SCI cache coherence;
  24321. thus, SCI is still far from having a meaningful application, remains a
  24322. research toy, and may remain untested for years."
  24323.  
  24324. I was very surprised to hear this, so I asked Convex if there was any basis
  24325. for this statement, and I received the following response:
  24326.  
  24327. >SPP-1 is fully cache coherent.  We are using every feature the
  24328. >    Dolphin design can support, plus a few we've patched around.
  24329. >    The inter-node coherence is, in fact, SCI.
  24330.  
  24331. The only thing I can think of that may have confused this issue is that
  24332. Convex groups several PA/RISC processors in each SCI node, and naturally
  24333. uses their native coherence mechanisms at that level, within the node. 
  24334.  
  24335. Translation from proprietary coherence mechanisms to SCI coherence has to
  24336. be done at a secondary cache for all existing processor chips, because
  24337. their snoop-based coherence mechanisms don't scale past a few processors
  24338. (which share a local bus). 
  24339.  
  24340. (Extending snooping coherence mechanisms to multiple buses can be done, but
  24341. is expensive and scales badly. Such bus bridges must snoop each bus on
  24342. behalf of the other, and have their own directories. SCI bridges, on the
  24343. other hand, need know nothing about coherence: they just pass packets based
  24344. on the 16 high bits of the address information, the same whether coherence
  24345. is being used or not.)
  24346.  
  24347. Furthermore, Convex isn't the only company that's using SCI. Though only
  24348. Convex and Unisys have said so publicly, others are hard at work too, on
  24349. unannounced products. I doubt if any other coherence protocol has been
  24350. tested so thoroughly by so many people before going into production
  24351. computers!
  24352.  
  24353. SCI Coherence is Optional:
  24354.  
  24355. A lot of people are frightened of cache coherence, and cite SCI's support
  24356. of coherence as a reason they can't use SCI. 
  24357.  
  24358. This is quite irrational--if you need coherence, better to use a widely
  24359. tested, well understood (by the experts, anyway!), and well specified
  24360. mechanism like SCI. If you don't need it, you've wasted 2 bits of the SCI
  24361. packet header. Big deal. If the average packet size is 32 bytes in an
  24362. incoherent system (16 header plus 16 data) you've wasted only 2/256, less
  24363. than one percent of the bandwidth. And in return for that you leave the
  24364. option open to add coherence later if and where you need it. (Coherent and
  24365. incoherent operations can be intermixed at will in SCI systems.)
  24366.  
  24367. If you argue that you could design a more efficient system than SCI if it
  24368. were designed from the ground up to eliminate coherence support, I say
  24369. you're mistaken. If you compress the header as much as you can, you're not
  24370. going to get it down to 8 bytes, the next point with a significant speed
  24371. gain, because the address alone is 8 bytes in a modern 64-bit system and 2
  24372. of SCI's 16 "header" bytes are really Error-Detecting Code that follows the
  24373. data, at the end of the packet. If you only shave a few bytes off, you
  24374. actually lose, because SCI gains a lot of speed by doing all of its buffer
  24375. allocation in uniform blocks. If you have to subtract buffer pointers to
  24376. make storage decisions, you're going to have to slow the transmission speed
  24377. or add pipeline stages that add latency delay. 
  24378.  
  24379. SCI uses the RISC principle of keeping things simple as possible in order
  24380. to run faster--making the chips more complicated in order to save a few
  24381. percent of bandwidth is a big loser when you have to slow the clock as a
  24382. result!
  24383.  
  24384. RamLink is Cheap and Simple:
  24385.  
  24386. However, if you don't need SCI's scalable multiprocessor features, for
  24387. example if you just want a faster-than-bus processor I/O-bus replacement,
  24388. you could use RamLink. RamLink avoids the multiprocessor and multimaster
  24389. issues by allowing only one controller on a ringlet (1 to 62 devices). It
  24390. uses a byte-wide path, initially at 500 MBytes/s, and though it was
  24391. designed primarily as a high performance memory interface it includes
  24392. enough capability (e.g. interrupts) to make it useful for I/O systems and
  24393. even bridges to other buses. 
  24394.  
  24395. RamLink (IEEE P1596.4 working group, chaired by Hans Wiggers of HP,
  24396. wiggers@hplhaw.hpl.hp.com) uses low-voltage differential signaling,
  24397. developed in the LVDS project (IEEE P1596.3 working group, chaired by
  24398. Stephen Kempainen of National, stephen@lightning.nsc.com). This signaling
  24399. is already in use in National's QuickRing chips. This is a very clean and
  24400. fast point-to-point signaling technology that copes well with connectors,
  24401. package pins, and even cable connections. Future versions can be expected
  24402. to run at even higher speeds (we know that in a few years people will want
  24403. multi-GByte/s links). It uses quarter-volt swings centered on 1.2 volts,
  24404. for compatibility with several generations of CMOS, BiCMOS, bipolar, and
  24405. GaAs technology.
  24406.  
  24407. Dave Gustavson
  24408.  
  24409.  
  24410. --------------------------------------------------------------
  24411. -- David B. Gustavson, Computation Research Group, SLAC, POB 4349 MS 88,
  24412.     Stanford, CA 94309   tel (415)961-3539  fax (415)961-3530
  24413. -- What the world needs next is a Scalable Coherent Interface!
  24414. -- Any opinions expressed are mine and not necessarily those
  24415.    of the Stanford Linear Accelerator Center, the University, or the DOE.
  24416.  
  24417. Approved: parallel@hubcap.clemson.edu
  24418. Follow-up: comp.parallel
  24419. Path: bounce-back
  24420. Newsgroups: comp.parallel
  24421. From: toyin@mailserver.aixssc.uk.ibm.com (Toyin omo Adelakun)
  24422. Subject: Re: Tuple space, What is it ????
  24423. Organization: IBM AIX Systems Support Centre, UK.
  24424. References: <1993Nov5.133422.9205@hubcap.clemson.edu>
  24425.  
  24426. kjcooper@gandalf.rutgers.edu (Kenneth Cooper) writes:
  24427. : Can anyone tell me what Tuple space is ???
  24428. : Kenny Cooper
  24429.  
  24430. Tuple space, as used by Linda programming extensions, is a means
  24431. of sharing data--"passing messages"--between possibly concurrent
  24432. processes. A tuple is an arbitrary data structure (the stress being
  24433. on _structure_):
  24434.     (String, String)
  24435. is a two-tuple or pair, and
  24436.     (String, Int, String, Real, Real)
  24437. is a quintuple.
  24438.  
  24439. Processes "drop tuples into TS" for other communicating processes
  24440. to use. Receiving processes read tuples from TS by a process of
  24441. pattern-matching. There are destructive and non-destructive reads
  24442. from TS.
  24443.  
  24444. Strictly, the data structures of our earlier illustration are best
  24445. described as tuple _schemata_: associated tuples may be
  24446.     ("Athens", "OH")
  24447. and
  24448.     ("Mick", 33, "1 Arbor Road", 77.0, 185.0)
  24449.  
  24450. The scheme goes something like this:
  24451.  
  24452. Writer does an
  24453.     Output("Athens", "OH")
  24454.  
  24455. and some companion process, Reader, does
  24456.     Input(String, String)
  24457.  
  24458. Reading a tuple from TS involves matching the individual "fields", and
  24459. (to the best of my rusty recollection) delivers the "next available
  24460. tuple" to the reader process. For this reason, Reader may end up not
  24461. with "("Athens", "OH")", but with '("La Jolla", "CA")'--which Writer
  24462. may've dropped into TS previously.
  24463.  
  24464. TS may be regarded as a pool of memory locations. The contents of
  24465. these locations are more relevant than their addresses.
  24466.  
  24467.  
  24468. Ref:
  24469. 1) Ben-Ari, M. _Principles of Concurrent and Distributed Programming_,
  24470.    Prentice-Hall, 199x.
  24471.  
  24472.  
  24473. I hope that is of some help.
  24474.  
  24475. Regards,
  24476.  
  24477. Toyin.
  24478.  
  24479. PS: I'm not confident enough to spell the name of the author of the
  24480. original Linda papers, but I know it starts "Gele..." (my apologies).
  24481. -- 
  24482. omo Adelakun, Toyin K.                Phone: (44-)0256-343 000 x319125
  24483.                         UKnet: toyin@aixssc.ibm.co.uk
  24484.  
  24485.             pOBODY'S Nerfect    - Anon.
  24486.  
  24487. Approved: parallel@hubcap.clemson.edu
  24488. Follow-up: comp.parallel
  24489. Path: bounce-back
  24490. Newsgroups: comp.parallel
  24491. From: ludwig@Informatik.TU-Muenchen.DE (Thomas Ludwig)
  24492. Subject: Paragon Message-Passing Environment for Workstations
  24493. Organization: Technische Universitaet Muenchen, Germany
  24494.  
  24495. Paragon Message-Passing Environment for Workstations Available
  24496.  
  24497.  
  24498. In order to develop applications for Paragon systems and to run
  24499. Paragon applications on a network of workstations we have developed
  24500. the NXLIB programming library. We are now releasing V1_0 of the
  24501. package under the terms of the GNU license agreement to the Paragon
  24502. and workstation community (currently an implementation for Sun SPARC
  24503. has been done, but ports to further machines will follow!).
  24504.  
  24505. The sources of the library and a User's Guide are available via
  24506. anonymous ftp from ftpbode.informatik.tu-muenchen.de. The related
  24507. files are located in the NXLIB directory.
  24508.  
  24509. To establish personal contacts to the authors the
  24510. nxlib@informatik.tu-muenchen.de email address can be used. 
  24511.  
  24512.  
  24513. =====
  24514. Stefan Lamberts, Georg Stellner, Dr. Thomas Ludwig, Prof. Dr. Arndt Bode
  24515.  
  24516. Approved: parallel@hubcap.clemson.edu
  24517. Follow-up: comp.parallel
  24518. Path: bounce-back
  24519. Newsgroups: comp.parallel,comp.parallel.pvm,comp.theory,comp.org.ieee,info.theorynt
  24520. From: das@ponder.csci.unt.edu (Sajal Das)
  24521. Subject: Call for Papers
  24522. Reply-To: comp-org-ieee@zeus.ieee.org
  24523. Organization: University of North Texas, Denton
  24524.  
  24525.                          *******************
  24526.                          * CALL FOR PAPERS *
  24527.                          *******************
  24528.  
  24529.               JOURNAL OF COMPUTER & SOFTWARE ENGINEERING
  24530.              --------------------------------------------
  24531.            SPECIAL ISSUE on PARALLEL ALGORITHMS & ARCHITECTURES 
  24532.               (Tentative Publication Date: January 1995)
  24533.  
  24534.  
  24535. Due to fundamental physical limitations on processing speeds of
  24536. sequential computers, the future-generation high performance 
  24537. computing environment will eventually rely entirely on exploiting 
  24538. the inherent parallelism in problems and implementing their 
  24539. solutions on realistic parallel machines.  Just as the processing
  24540. speeds of chips are approaching their physical limits, the need 
  24541. for faster computations is increasing at an even faster rate. 
  24542. For example, ten years ago there was virtually no general-purpose 
  24543. parallel computer available commercially. Now there are several 
  24544. machines, some of which have received wide acceptance due to 
  24545. reasonable cost and attractive performance. The purpose of this 
  24546. special issue is to focus on the desgin and analysis of efficient 
  24547. parallel algorithms and their performance on different parallel 
  24548. architectures. We expect to have a good blend of theory and practice.
  24549. In addition to theoretical papers on parallel algorithms, case studies 
  24550. and experience reports on applications of these algorithms in real-life 
  24551. problems are especially welcome. Example topics include, but are not 
  24552. limited to, the following:
  24553.  
  24554.  
  24555. Parallel Algorithms and Applications. 
  24556. Machine Models and Architectures. 
  24557. Communication, Synchronization and Scheduling.  
  24558. Mapping Algorithms on Architectures.
  24559. Performance Evaluation of Multiprocessor Systems.  
  24560. Parallel Data Structures. 
  24561. Parallel Programming and Software Tools. 
  24562.  
  24563. ***********************************************************************
  24564. Please submit SEVEN copies of your manuscript to either of the        *
  24565. Guest Editors by May  1, 1994:                                        *
  24566.                                                                       *
  24567. ***********************************************************************
  24568. Professor Sajal K. Das           ||  Professor Pradip K. Srimani      *
  24569. Department of Computer Science   ||  Department of Computer Science   *
  24570. University of North Texas        ||  Colorado State University        *
  24571. Denton, TX 76203                 ||  Ft. Collins, CO 80523            *
  24572. Tel: (817) 565-4256, -2799 (fax) ||  Tel: (303) 491-7097, -6639 (fax) *
  24573. Email: das@cs.unt.edu            ||  Email: srimani@CS.ColoState.Edu  *
  24574. ***********************************************************************
  24575.  
  24576.  
  24577. INSTRUCTIONS FOR SUBMITTING PAPERS: 
  24578.  
  24579. Papers should be 20--30 double spaced pages including figures, tables 
  24580. and references. Papers should not have been previously published, nor 
  24581. currently submitted elsewhere for publication. Papers should include a 
  24582. title page containing title, authors' names and affiliations, postal and 
  24583. e-mail addresses, telephone numbers and Fax numbers. Papers should
  24584. include a 300-word abstract.
  24585.  
  24586. If you are willing to referee papers for this special issue, please send
  24587. a note with research interest to either of the guest editors. 
  24588.  
  24589.  
  24590.  
  24591.  
  24592. Approved: parallel@hubcap.clemson.edu
  24593. Follow-up: comp.parallel
  24594. Path: bounce-back
  24595. Newsgroups: comp.parallel
  24596. From: parallel@netcom.com (B. Mitchell Loebel)
  24597. Subject: The PARALLEL Processing Connection - November 8th meeting notice
  24598. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  24599. Date: Sun, 7 Nov 1993 12:28:36 GMT
  24600. Apparently-To: comp-parallel@uunet.uu.net
  24601.  
  24602. HyperC - An Excellent Data-Parallel Language from France
  24603.  
  24604. On November 8th, founder Philippe Clermont of HyperParallel 
  24605. Technologies will present HyperC, a data-parallel extension to 
  24606. ANSI-C. HyperC is currently available in single workstation 
  24607. versions; it will be available by the end of this year for workstation 
  24608. farms and on parallel computers in 1994.
  24609.  
  24610. Philippe will discuss the use of the data-parallel programming model 
  24611. on SIMD and MIMD machine architectures, the underlying 
  24612. synchronous mechanism and the advantages it offers in debugging. 
  24613. He'll talk about  algorithm design and he will examine the way in 
  24614. which HyperC compiler technology enables developers to target 
  24615. such parallel architectures as SIMD and MIMD distributed memory 
  24616. and MIMD shared memory.
  24617.  
  24618. HyperParallel will offer a seminar to a select group of PPC members 
  24619. in the near future; Philippe's presentation will tell you if such a 
  24620. seminar is for you. Additionally, a new American company is being 
  24621. formed to further develop and market this excellent technology. PPC 
  24622. has already received assurances that its members will be strongly 
  24623. considered for principal positions.
  24624.  
  24625. A discussion of member entrepreneurial projects currently underway 
  24626. will begin at 7:15PM and the main meeting will start promptly at 
  24627. 7:45PM at Sun Microsystems at 901 San Antonio Road in Palo 
  24628. Alto. This is just off the southbound San Antonio exit of 101.  
  24629. Northbound travelers also exit at San Antonio and take the overpass 
  24630. to the other side of 101.
  24631.  
  24632. Please be prompt; as usual, we expect a large attendance; don't be 
  24633. left out or left standing. There is a $8 fee for non-members and 
  24634. members will be admitted free.
  24635.  
  24636. -- 
  24637. B. Mitchell Loebel                                      parallel@netcom.com 
  24638. Director - Strategic Alliances and Partnering                  408 732-9869 
  24639. PARALLEL Processing Connection 
  24640.  
  24641. Approved: parallel@hubcap.clemson.edu
  24642. Follow-up: comp.parallel
  24643. Path: bounce-back
  24644. Newsgroups: comp.parallel
  24645. From: parallel@netcom.com (B. Mitchell Loebel)
  24646. Subject: The PARALLEL Processing Connection - What Is It?
  24647. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  24648.  
  24649. The PARALLEL Processing Connection is an entrepreneurial 
  24650. association; we mean to assist our members in spawning very 
  24651. successful new businesses involving parallel processing.
  24652.  
  24653. Our meetings take place on the second Monday of each month at 
  24654. 7:15 PM at Sun Microsystems at 901 South San Antonio Road in 
  24655. Palo Alto, California. Southbound travelers exit 101 at San 
  24656. Antonio ; northbound attendees also exit at San Antonio and take the 
  24657. overpass to the other side of 101. There is an $8 visitor fee for non-
  24658. members and members ($40 per year) are admitted free. Our phone 
  24659. number is (408) 732-9869 for a recorded message about upcoming 
  24660. meetings.
  24661.  
  24662. Since the PPC was formed in late 1989 many people have sampled 
  24663. it, found it to be very valuable, and even understand what we're up 
  24664. to. Nonetheless, certain questions persist. Now, well into our fourth 
  24665. year of operation, perhaps we can and should clarify some of 
  24666. the issues. For example:
  24667.  
  24668. Q.  What is PPC's raison d'etre?
  24669. A.  The PARALLEL Processing Connection is an entrepreneurial 
  24670. organization intent on facilitating the emergence of new businesses. 
  24671. PPC does not become an active member of any such new entities, ie: 
  24672. is not itself a profit center.
  24673.  
  24674. Q.  The issue of 'why' is perhaps the most perplexing. After all, a 
  24675. $40 annual membership fee is essentially free and how can anything 
  24676. be free in 1993? What's the payoff? For whom?
  24677. A.  That's actually the easiest question of all. Those of us who are 
  24678. active members hope to be a part of new companies that get spun 
  24679. off; the payoff is for all of us -- this is an easy win-win! Since 
  24680. nothing else exists to facilitate hands-on entrepreneurship, we 
  24681. decided to put it together ourselves. 
  24682.  
  24683. Q.  How can PPC assist its members?
  24684. A.  PPC is a large technically credible organization. We have close 
  24685. to 100 paid members and a large group of less regular visitors; we 
  24686. mail to approximately 500 engineers and scientists (primarily in 
  24687. Silicon Valley). Major companies need to maintain visibility in the 
  24688. community and connection with it; that makes us an important 
  24689. conduit. PPC's strategy is to trade on that value by collaborating 
  24690. with important companies for the benefit of its members. Thus, as 
  24691. an organization, we have been able to obtain donated hardware, 
  24692. software, and training and we've put together a small development 
  24693. lab for hands-on use of members at our Sunnyvale office. Further, 
  24694. we've been able to negotiate discounts on seminars and 
  24695. hardware/software purchases by members. Most important, 
  24696. alliances such as we described give us an inside opportunity to 
  24697. JOINT VENTURE SITUATIONS.
  24698.  
  24699. Q.  As an attendee, what should I do to enhance my opportunities?
  24700. A.  Participate, participate, participate. Many important industry 
  24701. principals and capital people are in our audience looking for the 
  24702. 'movers'!
  24703.  
  24704. For further information contact:
  24705.  
  24706. -- 
  24707. B. Mitchell Loebel                                      parallel@netcom.com 
  24708. Director - Strategic Alliances and Partnering                  408 732-9869 
  24709. PARALLEL Processing Connection 
  24710.  
  24711. Approved: parallel@hubcap.clemson.edu
  24712. Follow-up: comp.parallel
  24713. Path: bounce-back
  24714. Newsgroups: comp.parallel
  24715. From: zxu@ringer.cs.utsa.edu (Zhichen Xu)
  24716. Subject: information of shared memory machines
  24717. Organization: Univ of Texas at San Antonio
  24718.  
  24719. I would like to get the information of all existing
  24720. shared-memory machines. Your sending me materials or
  24721. give me a list of those machine are greatly appreciated.
  24722.  
  24723.  
  24724. email address: zxu@dragon.cs.utsa.edu
  24725.  
  24726. Approved: parallel@hubcap.clemson.edu
  24727. Follow-up: comp.parallel
  24728. Path: bounce-back
  24729. Newsgroups: comp.parallel
  24730. From: ds@netcom.com (David Schachter)
  24731. Subject: Video on "Faster Messaging in Shared-Memory Multiprocessors"
  24732. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  24733.  
  24734. Tape #25: Optimizing Memory-Based Messaging for Scalable
  24735.           Shared Memory Multiprocessor Architectures
  24736.  
  24737. September 8, 1993, 71 minutes
  24738.  
  24739. >From the meeting notice: "Passing messages between programs, referred to as
  24740. memory-based messaging, is a technique for efficient interprocess communica-
  24741. tion that takes advantage of memory system performance.  Conventional OS sup-
  24742. port for this approach, however, is inefficient for large scale shared memory
  24743. multiprocessors and is too complex to be effectively supported in hardware.
  24744.  
  24745. "This talk presents joint work of the speaker and David Cheriton regarding
  24746. optimized support for memory-based messaging, in both hardware and software,
  24747. that provides interprocess communication performance comparable with memory
  24748. system performance on a scalable memory architecture.  [We] describe the com-
  24749. munication model, its implementation and hardware support, as well as the
  24750. performance benefits derived from the model."
  24751.  
  24752. Bob Kutter recently completed his Ph.D at Stanford, working with David Cheri-
  24753. ton, researching high performance messaging in shared memory multiprocessors.
  24754. Before this, he was lead engineer on the "9345" storage subsystem microcode
  24755. project at IBM and he worked on the "3990" storage subsystem as well.  He is
  24756. currently employed by IBM's AdStar Division.
  24757.  
  24758. This tape is available through the courtesy of SVNet and Bob Kutter.  FOR IN-
  24759. FORMATION ON SVNet MEMBERSHIP, contact Paul Fronberg at +1 408 246 1132 or
  24760. Ralph Barker at +1 408 559 6202 or send mail to P.O. Box 700251, San Jose, CA
  24761. 95170-0251.  SVNet is a Bay Area UN*X Users Group, supported by annual member-
  24762. ship fees and donations.  Meetings are FREE and PUBLIC.
  24763.  
  24764. For pricing, delivery, and other information ABOUT THIS VIDEOTAPE, contact me
  24765. directly.  Thank you.
  24766.  
  24767.                     -- David Schachter
  24768. -- 
  24769.  ______________________________________-_____________________________________
  24770.  David Schachter                                      Internet: ds@netcom.com
  24771.  801 Middlefield Road, #8                              CompuServe: 70714,3017
  24772.  Palo Alto, CA  94301-2916                After 10 am, voice: +1 415 328 7425
  24773.  USA                                                     fax: +1 415 328 7154
  24774.  
  24775. Approved: parallel@hubcap.clemson.edu
  24776. Follow-up: comp.parallel
  24777. Path: bounce-back
  24778. From: lee@aero.org (Craig A. Lee)
  24779. Newsgroups: comp.sys.super,comp.parallel,comp.parallel.pvm
  24780. Subject: Virtual Machine BoF, SC `93
  24781. Organization: The Aerospace Corporation
  24782.  
  24783.              Virtual Machines
  24784.         Birds-of-a-Feather Meeting
  24785.             Supercomputing `93
  24786.  
  24787.               3:30 - 5:00 PM
  24788.           Wednesday, November 17
  24789.                 Room A-108
  24790.  
  24791.  
  24792. Abstraction is used at every level of computation to control
  24793. complexity and make the construction of larger systems more
  24794. manageable.  Any level of abstraction can be expressed as a virtual
  24795. machine.  Common examples include abstract instruction sets,
  24796. programming languages, and "meta"-computers.  For parallel
  24797. supercomputing, virtual machines can support a variety of goals
  24798. including a unified heterogeneous programming model, architecture
  24799. independence, portability, and enhanced support for debuggers and
  24800. performance monitoring.
  24801.  
  24802. A number of open questions, however, surround the use of virtual
  24803. machines in this arena:
  24804.  
  24805. . Should these goals be supported by a relatively low-level set of
  24806. services, a "meta"-computer coordination approach, or something
  24807. in between, or all of the above?
  24808.  
  24809. . Is an intermediate form possible that would have sufficient
  24810. expressibility?
  24811.  
  24812. . Is it possible to control virtual machine performance from within
  24813. the programming model(s)?
  24814.  
  24815. . Is it possible to use the virtual machine concept with an acceptable
  24816. degree of efficiency and performance?
  24817.  
  24818. This Birds-of-a-Feather meeting will discuss these and other related
  24819. issues to clarify the direction that parallel supercomputing should
  24820. take.
  24821.  
  24822.  
  24823. Craig A. Lee
  24824. The Aerospace Corporation
  24825. 2350 East El Segundo Blvd.
  24826. El Segundo,  CA  90245
  24827.  
  24828.  
  24829. Approved: parallel@hubcap.clemson.edu
  24830. Follow-up: comp.parallel
  24831. Path: bounce-back
  24832. Newsgroups: comp.parallel
  24833. From: Jean.Marc.Andreoli@xerox.fr (Jean Marc Andreoli)
  24834. Subject: Re: Tuple space, What is it ????
  24835. Keywords: Tulpe
  24836. Sender: news@xerox.fr
  24837. Nntp-Posting-Host: oisans.grenoble.rxrc.xerox.com
  24838. Organization: Rank Xerox Research Centre
  24839. References:  <1993Nov5.133422.9205@hubcap.clemson.edu>
  24840. Date: Mon, 8 Nov 1993 08:46:30 GMT
  24841. Apparently-To: comp-parallel@uunet.uucp
  24842.  
  24843. In article <1993Nov5.133422.9205@hubcap.clemson.edu>, kjcooper@gandalf.rutgers.edu (Kenneth Cooper) writes:
  24844. |> 
  24845. |> Can anyone tell me what Tuple space is ???
  24846. |> Kenny Cooper
  24847. |> 
  24848.  
  24849. Basically, a tuple space is a blackboard (in the sense of blackboard
  24850. systems), where the information contained in the blackboard are
  24851. "tuples". A blackboard is a data repository shared by several agents
  24852. which can communicate by asserting, querying, retracting data
  24853. concurrently in the repository. A tuple is a flat record containing a
  24854. number of arguments (arity), e.g. ["a string",18,9.2e-4] is a tuple of
  24855. arity 3, amenable to an elementary form of pattern matching.
  24856.  
  24857. The notion of tuple space has been heavily used in Linda and also in
  24858. blackboard expansions of concurrent logic programming languages (e.g.
  24859. Parlog, Shared Prolog). I think the expression "tuple space" was first
  24860. introduced by the Linda people.
  24861.  
  24862. -- 
  24863. Jean-Marc Andreoli
  24864.  
  24865. Approved: parallel@hubcap.clemson.edu
  24866. Follow-up: comp.parallel
  24867. Path: bounce-back
  24868. Newsgroups: comp.parallel
  24869. From: Alain.Fagot@imag.fr (Alain Fagot)
  24870. Newsgroups: comp.parallel
  24871. Subject: Searching Parallel Debugging References
  24872. Organization: Institut Imag, Grenoble, France
  24873.  
  24874.         Hello,
  24875.  
  24876.     I'm currently desiging a degugging environment for the following
  24877. programming model : the computation is done by threads on several UNIX
  24878. processes (behaving like virtual processors), the cooperation between
  24879. threads is based on asynchronous RPC.
  24880.  
  24881. The debugging environment will be based on (deterministic) execution replay
  24882. of parallel programs. I have already designed and implemented a mechanism
  24883. for recording and replaying our parallel programs.
  24884.  
  24885. I need some pointers to previous work done for debugging of parallel
  24886. programs using a similar programming model.
  24887.  
  24888.     Thanks for your help.
  24889.  
  24890.             Alain.
  24891.  
  24892. -- 
  24893. Alain FAGOT             |/ Alain.Fagot@imag.fr       \| Oublie les plumes
  24894. IMAG-LMC                |\ membre du LGI             /| oublie les mocassins
  24895. 46 Avenue Felix Viallet |/ Projet APACHE             \| pas besoin de costume
  24896. 38031 GRENOBLE CEDEX 1  |\ bureau:   +33 76 57 48 94 /| pour devenir indien.
  24897. FRANCE                  |/ domicile: +33 76 85 41 09 \|            Pow Wow
  24898.  
  24899. Approved: parallel@hubcap.clemson.edu
  24900. Follow-up: comp.parallel
  24901. Path: bounce-back
  24902. Newsgroups: comp.parallel
  24903. From: kutscher@informatik.uni-stuttgart.de (Peter Kutschera)
  24904. Subject: Sequoia
  24905. Sender: news@informatik.uni-stuttgart.de
  24906. Organization: IPVR, University of Stuttgart, Germany
  24907. Date: Mon, 8 Nov 1993 12:42:24 GMT
  24908. Apparently-To: hypercube@hubcap.clemson.edu
  24909.  
  24910.  
  24911. I'm posting this for a friend of mine, who has no access to the
  24912. internet.
  24913.  
  24914. Have you ever heard of a parallel computer based on Motorola hardware
  24915. named Sequoia? Or is it a hardware vendor's name?
  24916. If anybody has a clue, any info is appreciated.
  24917. Thank you in advance,
  24918. Peter
  24919. --
  24920. --------------------------------------------------------------------------------
  24921. Peter Kutschera
  24922. IPVR, University of Stuttgart
  24923. Breitwiesenstr. 20 - 22
  24924. D-70565 Stuttgart (Germany)
  24925. Approved: parallel@hubcap.clemson.edu
  24926. Follow-up: comp.parallel
  24927. Path: bounce-back
  24928. Newsgroups: comp.parallel
  24929. From: janr@fwi.uva.nl (Jan de Ronde)
  24930. Subject: IPS
  24931. Organization: FWI, University of Amsterdam
  24932.  
  24933. Is there anyone out there who can tell me more about IPS? That is: 
  24934. is it available, details on usage of IPS etc...? 
  24935.  
  24936. Thanks. 
  24937.  
  24938.  
  24939. Approved: parallel@hubcap.clemson.edu
  24940. Follow-up: comp.parallel
  24941. Path: bounce-back
  24942. From: cel@theory.lcs.mit.edu (Charles E. Leiserson)
  24943. Newsgroups: comp.parallel,comp.theory,comp.arch
  24944. Subject: SPAA'94 CALL FOR PAPERS
  24945. Organization: MIT Lab for Computer Science
  24946.  
  24947.                SPAA'94 CALL FOR PAPERS
  24948.  
  24949.             Sixth Annual ACM Symposium on
  24950.         PARALLEL ALGORITHMS AND ARCHITECTURES
  24951.  
  24952.                JUNE 27-29, 1994
  24953.              Cape May, New Jersey
  24954.  
  24955.  
  24956. The Sixth Annual ACM Symposium on Parallel Algorithms and
  24957. Architectures (SPAA'94) will be held in Cape May, New Jersey, on June
  24958. 27-29, 1994.  It is sponsored by the ACM Special Interest Groups for
  24959. Automata and Computability Theory (SIGACT) and Computer Architecture
  24960. (SIGARCH) and organized in cooperation with the European Association
  24961. for Theoretical Computer Science (EATCS).
  24962.  
  24963. CONTRIBUTED PAPERS: Contributed papers are sought that present
  24964. original, fundamental advances in parallel algorithms and
  24965. architectures, whether analytical or experimental, theoretical or
  24966. practical.  A major goal of SPAA is to foster communication and
  24967. cooperation among the diverse communities involved in parallel
  24968. algorithms and architectures, including those involved in operating
  24969. systems, languages, and applications.  The Symposium especially
  24970. encourages contributed papers that offer novel architectural
  24971. mechanisms or conceptual advances in parallel architectures,
  24972. algorithmic work that exploits or embodies architectural features of
  24973. parallel machines, and software or applications that emphasize
  24974. architectural or algorithmic ideas.
  24975.  
  24976. VENDOR PRESENTATIONS:  As in previous years, the Symposium
  24977. will devote a subset of the presentations to technical material
  24978. describing commercially available systems.  Papers are solicited
  24979. describing concepts, implementations or performance of commercially
  24980. available parallel computers, routers, or software packages containing
  24981. novel algorithms.  Papers should not be sales literature, but rather
  24982. research-quality descriptions of production or prototype systems.
  24983. Papers that address the interaction between architecture and
  24984. algorithms are especially encouraged.
  24985.  
  24986. SUBMISSIONS: Authors are invited to send draft papers to:
  24987.     Charles E. Leiserson, SPAA'94 Program Chair
  24988.     MIT Laboratory for Computer Science
  24989.     545 Technology Square
  24990.     Cambridge, MA  02139
  24991.     USA
  24992. The deadline for submissions is JANUARY 21, 1994.  Simultaneous
  24993. submission of the same research to SPAA and to another conference with
  24994. proceedings is not allowed.  Inquiries should be addressed to Ms.
  24995. Cheryl Patton (phone: 617-253-2322; fax: 617-253-0415; e-mail:
  24996. cap@mit.edu).
  24997.  
  24998. FORMAT FOR SUBMISSIONS: Authors should submit 15 double-sided copies
  24999. of a draft paper.  The cover page should include (1) title, (2)
  25000. authors and affiliation, (3) e-mail address of the contact author, and
  25001. (4) a brief abstract describing the work.  If the paper is to be
  25002. considered as a vendor presentation, the words ``Vendor Presentation''
  25003. should appear at the top of the cover page.  A technical exposition
  25004. should follow on subsequent pages, and should include a comparison
  25005. with previous work.  The technical exposition should be directed
  25006. toward a specialist, but it should include an introduction
  25007. understandable to a nonspecialist that describes the problem studied
  25008. and the results achieved, focusing on the important ideas and their
  25009. significance.  The draft paper--excluding cover page, figures, and
  25010. references--should not exceed 10 printed pages in 11-point type or
  25011. larger.  More details may be supplied in a clearly marked appendix
  25012. which may be read at the discretion of the Program Committee.  Any
  25013. paper deviating significantly from these guidelines--or which is not
  25014. received by the January 21, 1994 deadline--risks rejection without
  25015. consideration of its merits.
  25016.  
  25017. ACCEPTANCE: Authors will be notified of acceptance or rejection by a
  25018. letter mailed by March 15, 1994.  A final copy of each accepted paper,
  25019. prepared according to ACM guidelines, must be received by the Program
  25020. Chair by April 8, 1994.  It is expected that every accepted paper will
  25021. be presented at the Symposium, which features no parallel sessions.
  25022.  
  25023. CONFERENCE CHAIR: 
  25024.     Lawrence Snyder, U. Washington.
  25025.  
  25026. LOCAL ARRANGEMENTS CHAIR: 
  25027.     Satish Rao and Yu-dauh Lyuu, NEC Research Institute.
  25028.  
  25029. PROGRAM COMMITTEE:
  25030.     Gianfranco Bilardi (U. Padova, Italy),
  25031.     Tom Blank (MasPar),
  25032.     Guy Blelloch (Carnegie Mellon),
  25033.     David Culler (U. California, Berkeley),
  25034.     Robert Cypher (IBM, Almaden),
  25035.     Steve Frank (Kendall Square Research),
  25036.     Torben Hagerup (Max Planck Institute, Germany),
  25037.     Charles E. Leiserson, Chairman (MIT),
  25038.     Trevor N. Mudge (U. Michigan, Ann Arbor),
  25039.     Cynthia A. Phillips (Sandia National Laboratories),
  25040.     Steve Oberlin (Cray Research),
  25041.     C. Gregory Plaxton (U. Texas, Austin),
  25042.     Rob Schreiber (RIACS).
  25043.  
  25044.  
  25045.  
  25046.  
  25047. --
  25048. Cheers,
  25049. Charles
  25050.  
  25051. Approved: parallel@hubcap.clemson.edu
  25052. Follow-up: comp.parallel
  25053. Path: bounce-back
  25054. Newsgroups: comp.parallel
  25055. From: sudy@PHOEBUS.SCA.COM (Sudy Bharadwaj)
  25056. Subject: Parallel/Distributed Training Course.
  25057. Reply-To: sudy@PHOEBUS.SCA.COM (Sudy Bharadwaj)
  25058. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  25059.  
  25060.  
  25061.  Parallel/Distributed Computing Training Course Offered.
  25062.  
  25063.  SCIENTIFIC Computing Associates will offer the course "Introduction 
  25064. to Parallel Programming with Linda" on Thursday, December 9 at the
  25065. Florida State University Supercomputer Computations Research Institute,
  25066. in Tallahassee, FL.  The course will run from 1:00pm to 7:00pm,
  25067. and immediately follows the Cluster Workshop '93 at the same
  25068. institution.  The Cluster Workshop '93 ends 12/9 at 12:00pm, and
  25069. the concepts discussed throughout the workshop can
  25070. be put to practice in this course.  The topics to be covered include:
  25071.  
  25072.  o Linda software architecture
  25073.  o Structuring parallel programs with Linda
  25074.  o Linda program development aids
  25075.  o Efficient Linda parallel programming
  25076.  
  25077. The course centers around real word program examples, used to 
  25078. introduce and illustrate the concepts it covers. In addition, the
  25079. course also includes several hands-on programming problems.
  25080.  
  25081. The course fee of $295 includes classroom and laboratory
  25082. instruction and course materials.  
  25083.  
  25084.  
  25085. To register for this course or to request further information about this 
  25086. and upcomming courses, contact SCIENTIFIC Computing Associates, Inc at:
  25087.  
  25088.                 One Century Tower
  25089.                 265 Church Street
  25090.                 New Haven, CT 06510
  25091.  
  25092.                 (203) 777-7442
  25093.                 (203) 776-4074 (fax)
  25094.                 email: software@sca.com
  25095.  
  25096. |                            |                     |                      |
  25097. | Sudy Bharadwaj             | One Century Tower   | (203) 777-7442       |
  25098. | Director of Sales          | 265 Church Street   | (203) 776-4074 (fax) |
  25099. | Scientific Computing Assoc | New Haven, CT 06510 | email: sudy@sca.com  |
  25100. Approved: parallel@hubcap.clemson.edu
  25101. Follow-up: comp.parallel
  25102. Path: bounce-back
  25103. Newsgroups: comp.parallel
  25104. From: zxu@ringer.cs.utsa.edu (Zhichen Xu)
  25105. Subject: Seek survey of parallel computers
  25106. Organization: Univ of Texas at San Antonio
  25107.  
  25108. Any one sending me a survey of existing parallel
  25109. computer architectures are greatly appreciated.
  25110. Recommendation of materials of existing
  25111. parallel architectures are welcomed too.
  25112.  
  25113. email  zxu@ringer.cs.utsa.edu
  25114.  
  25115. Approved: parallel@hubcap.clemson.edu
  25116. Follow-up: comp.parallel
  25117. Path: bounce-back
  25118. Newsgroups: comp.parallel
  25119. From: eugene@nas.nasa.gov (Eugene N. Miya)
  25120. Subject: Re: The Future of Parallel Computing
  25121. Organization: NAS - NASA Ames Research Center, Moffett Field, CA
  25122. References: <DMB.93Oct28093859@gorm.lanl.gov> <1993Nov4.153024.25048@hubcap.clemson.edu>
  25123.  
  25124. In article <1993Nov4.153024.25048@hubcap.clemson.edu>
  25125. ohnielse@fysik.dth.dk writes:
  25126. >I often compare the use of computers for scientific purposes to the use
  25127. >of experimental equipment (vacuum chambers, electron guns, what have
  25128. >you).  Any good experimentalist knows his equipment well, and knows how
  25129. >to push it to produce the results that he is seeking.  The same with
  25130. >computers:  A computational scientist has to know his computer
  25131. >sufficiently well to make it produce results (nearly) as efficiently as
  25132. >possible.
  25133.  
  25134. >I believe there is no excuse for ignoring the hardware you use for
  25135. >scientific computing.
  25136.  
  25137. Let me play devils advocate here.  I believe you are setting up an
  25138. easy straw man target and knocking him down.  I have a friend who is a
  25139. wind tunnel experimentalist.  She has to check a lab note book (paper)
  25140. for her password (men check their lab books as well, too).  The problem is
  25141. that the equipment is not the science.  If we had more readers from the
  25142. comp.software-eng area, you would pull flak noting: 1) codes frequently
  25143. outlive their machines (it has to be portable, only a few codes will survive
  25144. the transition to parallel architectures  (good riddance to that old
  25145. science)). 2) if the science is every commercialized, made into an
  25146. engineering product, then portability has to include heterogeneity:
  25147. few people develop codes for more than one machine.  I started on IBMs,
  25148. then went to Univacs, and other machines.  I got into science for the
  25149. power of its generality.  This is now a wash because of computer architecture,
  25150. programs don't work across many machines.  Many scientists can't be bothered
  25151. by machine details.  Why should I have to know the smallest magnitude
  25152. floating point number?  (one recent debugging problem [algorithm can't
  25153. initialize at zero].)  It's silly.  
  25154.  
  25155. Great tension we have between the forces of change.  I wonder who will win.
  25156. I know who will lose.
  25157.  
  25158. --eugene miya, NASA Ames Research Center, eugene@orville.nas.nasa.gov
  25159.   Resident Cynic, Rock of Ages Home for Retired Hackers
  25160.   {uunet,mailrus,other gateways}!ames!eugene
  25161. Second Favorite email message: 550 Host unknown (Authoritative answer from name server): Address family not supported by protocol family
  25162. A Ref: Mathematics and Plausible Reasoning, vol. 1, G. Polya
  25163.  
  25164. The real problem is that programmers have spent far too much time
  25165. worrying about efficiency in the wrong places and at the wrong times.
  25166. Premature optimization is the root of all evil (or at least most of it)
  25167. in programming.
  25168.  
  25169. %A D. E. Knuth
  25170. %T Computer Programming as an Art
  25171. %J CACM?
  25172. %D 1974
  25173. %K Turing award lecture 1974
  25174. %X also ACM Turing Award Lectures: The First Twenty Years
  25175. pp. 33-46.  And DEK's own Literate Programming.
  25176.  
  25177.  
  25178. Approved: parallel@hubcap.clemson.edu
  25179. Follow-up: comp.parallel
  25180. Path: bounce-back
  25181. Newsgroups: comp.parallel,comp.parallel.pvm,comp.sys.super,sci.geo.meteorology
  25182. From: hart@spike.ucar.edu (Leslie Hart [FSL])
  25183. Subject: BOF at SC'93 on Parallelizing Numerical Weather Prediction Models
  25184. Followup-To: hart@fsl.noaa.gov 
  25185. Keywords: numerical weather prediction, weather models, parallel programming
  25186. Organization: NOAA/ERL/FSL, Boulder, CO
  25187.  
  25188. We at NOAA/Forecast Systems Laboratory are parallelizing a next-generation
  25189. weather prediction model.  We would like to share our current experiences with
  25190. others as well as learn form others.  We are planning to hold a Birds of a
  25191. Feather Session at Supercomputing '93 on Tuesday 16 November 1993 from 1:30
  25192. to 3:30 in room A-107.  We would like to basically hold a get to know each
  25193. other session.  We invite 5-15 minute presentations on works in progress.
  25194.  
  25195. We are looking more at the computer science aspect of parallelizing weather
  25196. models but also want to include people from the meteorological end of the
  25197. spectrum.  We are interested in tools development, tools usage, acquisition of
  25198. (near) realtime data, output techniques, and integrating into an overall 
  25199. forecasting environment.
  25200.  
  25201. If you wish more information or wish to give a (short) presentation,
  25202. please send email to hart@fsl.noaa.gov or contact me at (303) 497 7253.
  25203.  
  25204. Regards,
  25205. Leslie Hart
  25206. NOAA/ERL/FSL  (Contractor for Science and Technology Corp.)
  25207. Boulder, CO
  25208.  
  25209. Approved: parallel@hubcap.clemson.edu
  25210. Follow-up: comp.parallel
  25211. Path: bounce-back
  25212. Newsgroups: comp.parallel
  25213. From: matias@research.att.com
  25214. Subject: DIMACS Workshop on Parallel Algorithms (Nov 17-19)
  25215.  
  25216.  
  25217.                   PROGRAM and REGISTRATION INFORMATION
  25218.  
  25219.                          DIMACS Workshop on 
  25220.      Parallel Algorithms: From Solving Combinatorial Problems to Solving 
  25221.                       Grand Challenge Problems
  25222.  
  25223.                         November 17-19, 1993
  25224.  
  25225. In the context of the 1993-94 DIMACS special year on Massively Parallel
  25226. Computation, a three day workshop on ``Parallel Algorithms: From Solving 
  25227. Combinatorial Problems to Solving Grand Challenge Problems'' will be held 
  25228. on November 17-19, 1994.
  25229. The focus of the workshop will be the general area of parallel algorithms. 
  25230. The scope includes the study of basic problems in parallel computation, on
  25231. the one hand, and the relevance of parallel computation to various 
  25232. applications, including the so-called Grand Challenge Problems, on the
  25233. other hand.
  25234.  
  25235.  
  25236. PARTICIPATION
  25237.  
  25238. The workshop will be held at DIMACS at Rutgers University, Piscataway, 
  25239. New Jersey.  DIMACS is the National Science Foundation science and 
  25240. technology center for discrete mathematics and computer science.  It
  25241. is a consortium of Rutgers and Princeton Universities, AT&T Bell
  25242. Laboratories, and Bellcore.  Co-organizers for this workshop are:
  25243.  
  25244.         Jim Flanagan (CAIP-Rutgers) [flanagan@caip.rutgers.edu]
  25245.         Yossi Matias (AT&T Bell Labs) [matias@research.att.com]
  25246.         Vijaya Ramachandran (U. Texas) [vlr@cs.utexas.edu]
  25247.  
  25248. The workshop will include invited presentations and contributed talks.
  25249.  
  25250.  
  25251. REGISTRATION
  25252.  
  25253. The DIMACS Conference Center at Rutgers can accommodate about 100 participants.
  25254. Subject to this capacity constraint, the workshop is open to all researchers.  
  25255. To register, contact Pat Toci [toci@dimacs.rutgers.edu, (908) 932-5930]. If 
  25256. possible, please register by NOVEMBER 10, although registration at the 
  25257. conference is permitted.  THERE IS NO REGISTRATION FEE.
  25258.  
  25259.  
  25260.  
  25261. PROGRAM:
  25262.  
  25263.  
  25264. Wednesday, November 17
  25265. =========================
  25266. 8:00 - 8:50 Light Breakfast
  25267. -------------------------
  25268. 8:55 - 9:00 Welcoming remarks from DIMACS
  25269.  
  25270. 9:00 - 9:30 Al Thaler (NSF) [tentative]
  25271.     HPCC Activities and Grand Challenges
  25272.  
  25273. 9:30 - 10:00 Gary Miller (CMU)
  25274.     Numeric and Combinatorial Aspects to Parallel Scientific Computation
  25275. -------------------------
  25276. 10:00 - 10:30 Coffee Break
  25277. -------------------------
  25278. 10:30 - 11:00 Richard Cole (NYU) 
  25279.     2-D Pattern Matching 
  25280.  
  25281. 11:00 - 11:30 Uzi Vishkin  (Maryland & Tel Aviv)
  25282.     Efficient Labeling of Substrings
  25283.  
  25284. 11:30 - 12:00 Pierre Kelsen (U British Columbia)
  25285.     Constant Time Parallel Indexing of Points in a Triangle
  25286.  
  25287. 12:00 - 12:20 Pangfeng Liu (DIMACS)
  25288.     Experiences with Parallel N-body simulations
  25289. -------------------------
  25290. 12:30 - 2:00 LUNCH
  25291. -------------------------
  25292. 2:00 - 2:30 Victor Pan (CUNY) 
  25293.     Efficient Parallel computations in Linear Algebra with Applications
  25294.  
  25295. 2:30 - 2:50 Roland Wunderling (Berlin)
  25296.     On the Impact of Communication Latencies on Distributed Sparse LU 
  25297.     Factorization
  25298.  
  25299. 2:50 - 3:20 Ian Parberry (North Texas U)     
  25300.     Algorithms for Touring Knights 
  25301. -------------------------
  25302. 3:20 - 3:50 Coffee Break
  25303. -------------------------
  25304. 3:50 - 4:20 Phil Klein (Brown)
  25305.     A Linear-Processor Polylog-Time Parallel Algorithm for Shortest 
  25306.     Paths in Planar Graphs
  25307.  
  25308. 4:20 - 4:50 Edith Cohen (Bell Labs)
  25309.     Undirected Shortest Paths in Polylog-Time and Near-Linear Work
  25310.  
  25311. 4:50 - 5:20 Lin Chen (USC)
  25312.     Graph Isomorphism and Identification Matrices: Parallel Algorithms
  25313. -------------------------
  25314. 5:30 Wine and Cheese Reception
  25315. -------------------------
  25316.  
  25317. Thursday, November 18
  25318. =========================
  25319. 8:00 - 8:45 Light Breakfast
  25320. -------------------------
  25321. 8:50 - 9:30  John Board (Duke)
  25322.     Algorithms for Multipole-Accelerated Force Calculation in Molecular
  25323.     Dynamics
  25324.  
  25325. 9:30 - 10:00 Vijaya Ramachandran (U Texas at Austin)
  25326.     Parallel Graph Algorithms: Theory and Implementation
  25327. -------------------------
  25328. 10:00-10:30 Coffee Break
  25329. -------------------------
  25330. 10:30 - 11:00 Zvi Kedem (NYU)        
  25331.     Towards High-Performance Fault-Tolerant Distributed Processing
  25332.  
  25333. 11:00 - 11:30 Torben Hagerup (Max Planck Inst)
  25334.     Fast Deterministic Compaction and its Applications
  25335.  
  25336. 11:30 - 12:00 Phil Gibbons (Bell Labs)
  25337.     Efficient Low Contention Parallel Algorithms
  25338.  
  25339. 12:00 - 12:30 Paul Spirakis (Patras)
  25340.     Paradigms for Fast Parallel Approximations for Problems that 
  25341.         are Hard to Parallelize 
  25342. -------------------------
  25343. 12:30 - 2:00 LUNCH
  25344. -------------------------
  25345. 2:00 - 2:40 Olof Widlund (NYU)         
  25346.     Some Recent Results on Schwarz Type Domain Decomposition Algorithms
  25347.  
  25348. 2:40 - 3:10 Jan Prins (U North Carolina at CH)
  25349.     The Proteus System for the Development of Parallel Algorithms
  25350.  
  25351. 3:10 - 3:40 Yuefan Deng (SUNY at Stony Brook)
  25352.     Parallel Computing Applied to DNA-protein Interaction Study:
  25353.     A Global Nonlinear Optimization Problem
  25354. -------------------------
  25355. 3:40 - 4:10 Coffee Break
  25356. -------------------------
  25357. 4:10 - 4:40 Rajeev Raman (Maryland)
  25358.     Optimal Parallel Algorithms for Searching a Totally Monotone Matrix
  25359.  
  25360. 4:40 - 5:10 Teresa Przytycka (Odense)
  25361.     Trade-offs in Parallel Computation of Huffman Tree and Concave
  25362.     Least Weight Subsequence
  25363.  
  25364. 5:10 - 5:40 Vijay Vazirani (IIT Delhi & DIMACS)
  25365.     A Primal-dual RNC Approximation Algorithm for (multi)-Set
  25366.         (multi)-Cover and Covering Integer Programs
  25367. -------------------------
  25368.  
  25369. Friday, November 19
  25370. =========================
  25371. 8:00 - 8:45 Light Breakfast
  25372. -------------------------
  25373. 8:50 - 9:20 Mike Goodrich (Johns Hopkins) 
  25374.     Parallel Methods for Computational Geometry
  25375.  
  25376. 9:20 - 9:50 Yossi Matias (Bell Labs)
  25377.     Highly Parallel Randomized Algorithms - Some Recent Results
  25378.  
  25379. 9:50 - 10:10 Dina Kravets (NJIT)        
  25380.     All Nearest Smaller Values on Hypercube with Applications
  25381. -------------------------
  25382. 10:10-10:40 Coffee Break
  25383. -------------------------
  25384. 10:40 - 11:10 Mike Atallah (Purdue)
  25385.     Optimal Parallel Hypercube Algorithms for Polygon Problems
  25386.  
  25387. 11:10 - 11:40 Ernst Mayr (Munich)
  25388.     Optimal Tree Contraction on the Hypercube and Related Network
  25389.  
  25390. 11:40 - 12:00 David Haglin (Mankato State U)
  25391.     Evaluating Parallel Approximation Algorithms: With a Case Study in 
  25392.     Graph Matching 
  25393.  
  25394. 12:00 - 12:20 Jesper Traff (Copenhagen)
  25395.     A Distributed Implementation of an Algorithm for the Maximum Flow Problem
  25396. -------------------------
  25397. 12:20 - 1:50 LUNCH
  25398. -------------------------
  25399. 1:50 - 2:20 Joseph JaJa (Maryland)         
  25400.     Efficient Parallel Algorithms for Image Processing
  25401.  
  25402. 2:20 - 2:50 Rainer Feldmann (Paderborn)
  25403.     Game Tree Search on Massively Parallel Systems
  25404.  
  25405. 2:50 - 3:10 Stefan Tschoke (Paderborn)
  25406.     Efficient Parallelization of a Branch & Bound Algorithm for the
  25407.     Symmetric Traveling Salesman Problem
  25408.  
  25409. 3:10 - 3:30 Erik Tarnvik (Umea, Sweden)
  25410.     Solving the 0-1 Knapsack Problem on a Distributed Memory Multicomputer
  25411. -------------------------
  25412. 3:30 - 4:00 Coffee Break
  25413. -------------------------
  25414. 4:00 - 4:30 Aravind Srinivasan (Institute for Advanced Study and DIMACS)
  25415.     Improved parallel algorithms via Approximating Probability Distributions
  25416.  
  25417. 4:30 - 4:50 Per Laursen (Copenhagen)
  25418.     Parallel Simulated Annealing Using Selection and Migration -- an Approach
  25419.     Inspired by Genetic Algorithms
  25420.  
  25421. 4:50 - 5:20 Zvi Galil (Columbia U & Tel Aviv)
  25422.     From the CRCW-PRAM to the HCUBE via the CREW-PRAM and the EREW-PRAM
  25423.        or In the Defense of the PRAM
  25424. -------------------------
  25425.  
  25426.  
  25427.  
  25428. TRAVEL AND HOTEL INFORMATION:
  25429.  
  25430. It is recommended that participants arriving by plane fly into
  25431. Newark Airport. Flying into Kennedy or La Guardia can add more than
  25432. an hour to the travel time to DIMACS.
  25433.  
  25434. DIMACS has successfully and quite pleasantly used the Comfort Inn and
  25435. the Holiday Inn, both in South Plainfield - they are next to each other.
  25436. The Comfort Inn gives DIMACS the rate of $40.00 and the Holiday Inn of
  25437. $60.00 (includes a continental breakfast).  The Comfort Inn's # is
  25438. 908-561-4488.  The Holiday Inn's # is 908-753-5500.  They both provide
  25439. free van service to and from DIMACS.  If desired, hotel reservations
  25440. can be made by Pat Toci [toci@dimacs.rutgers.edu, (908) 932-5930], the 
  25441. workshop coordinator.  She will need to know the date of arrival and 
  25442. departure, which hotel is preferred, and a credit card and expiration number.
  25443.  
  25444. To travel between Newark Airport and DIMACS/hotels, we recommend ICS
  25445. Van Service, 1-800-225-4427.  The rate is $19.00 per person.  It must
  25446. be booked in advance.  From the New York airports, participants may take
  25447. the Grayline Air (bus) Shuttle (1-800-451-0455) to Newark and then
  25448. ICS Van service from there.
  25449.  
  25450. Participants arriving to DIMACS by car will need a parking permit.
  25451. Parking permits can be obtained in advance by sending email to Pat Toci.
  25452. Otherwise, they can be obtained any day of the workshop.
  25453.  
  25454. All workshop events will take place at DIMACS, located in the CoRE Building
  25455. of Rutgers University, Busch Campus, in Piscataway, New Jersey.
  25456.  
  25457. For further questions regarding local transportation and accommodations,
  25458. or to obtain detailed driving directions to the hotels and to DIMACS,
  25459. contact Pat Toci [toci@dimacs.rutgers.edu, (908) 932-5930].
  25460.  
  25461.  
  25462.  
  25463. Approved: parallel@hubcap.clemson.edu
  25464. Follow-up: comp.parallel
  25465. Path: bounce-back
  25466. Newsgroups: comp.parallel
  25467. From: leichter@thorium.rutgers.edu
  25468. Subject: Re: Linda for ALPHA(AXP)/OPENvms
  25469. References: <1993Nov8.202248.1189@hubcap.clemson.edu>
  25470.  
  25471. In article <1993Nov8.202248.1189@hubcap.clemson.edu>, sabu@panix.com
  25472. (Sabu Bhatia) writes:
  25473. | Hi,
  25474. |   Does anyone know if "Linda" has been ported to ALPHA(AXP)/OPNvms. If it
  25475. | has been an ftp site or vendor name/phone number shall be greatly
  25476. | appreciated.
  25477.  
  25478. LRW Systems has an implementation of Linda for VMS.  Currently, it runs on
  25479. VAXes, but an Alpha/VMS port would be quite straightforward, given customer
  25480. interest.
  25481.  
  25482. I'd rather not go into details from my Rutgers account.  Send mail to me as
  25483. leichter@lrw.com (or lrw@lrw.com if you forget the spelling - it'll reach me)
  25484. for further information.
  25485.                             -- Jerry
  25486.  
  25487. Approved: parallel@hubcap.clemson.edu
  25488. Follow-up: comp.parallel
  25489. Path: bounce-back
  25490. Newsgroups: comp.parallel
  25491. From: dxn@ivy.WPI.EDU (Deepak Narain)
  25492. Subject: Re: Searching Parallel Debugging References
  25493. Organization: Department of Computer Science, Worcester Polytechnic Institute
  25494.  
  25495. >From Alain.Fagot@imag.fr (Alain Fagot):
  25496. >    I'm currently desiging a degugging environment for the following
  25497. >programming model : the computation is done by threads on several UNIX
  25498. >processes (behaving like virtual processors), the cooperation between
  25499. >threads is based on asynchronous RPC.
  25500. >
  25501. >The debugging environment will be based on (deterministic) execution replay
  25502. >of parallel programs. I have already designed and implemented a mechanism
  25503. >for recording and replaying our parallel programs.
  25504. >
  25505. >I need some pointers to previous work done for debugging of parallel
  25506. >programs using a similar programming model.
  25507.  
  25508. Try the bibliography in wilma.cs.brown.edu:/debug.  It is very extensive,
  25509. and up to date to about the beginning of the year.
  25510.  
  25511. A question:  What kind of replay do you provide for, is it for just
  25512. key events?  What model do you use for storing data about program
  25513. execution?
  25514.  
  25515. I hope that these questions are not TOO general in nature.  If you
  25516. could point me to some papers, that would be fine too.
  25517.  
  25518.  
  25519. ------------------------------------------------------------------------
  25520. Deepak Narain                                             dxn@cs.wpi.edu
  25521. Department of Computer Science           Worcester Polytechnic Institute
  25522.  
  25523. Approved: parallel@hubcap.clemson.edu
  25524. Follow-up: comp.parallel
  25525. Path: bounce-back
  25526. Newsgroups: comp.parallel
  25527. From: tim@osiris.usi.utah.edu (Timothy Burns)
  25528. Subject: C++ classes for distributed parallel computing
  25529. Sender: news@csc-sun.math.utah.edu
  25530. Organization: Utah Supercomputing Institute, University of Utah
  25531.  
  25532. Hello,
  25533. I am looking for C++ classes and functions for distributed parallel
  25534. computing.  My primary interest is a package that will attach to a
  25535. variety of message-passing platforms.
  25536. Thanks,
  25537. Tim
  25538. --
  25539. Tim Burns                email: tim@osiris.usi.utah.edu
  25540. USI, 85 SSB, Univ. of Utah, UT  84112      phone: (801)581-5172
  25541. +--------------------------------------------------------------------------+
  25542. | Even the most brilliant scientific discoveries will in time change and   |
  25543. | perhaps grow obsolete, as new scientific manifestations emerge.  But Art |
  25544. | is eternal; for it reveals the inner landscape which is the soul of man. |
  25545. +----------------------------------            --Martha Graham    ---------+
  25546.  
  25547.  
  25548. Approved: parallel@hubcap.clemson.edu
  25549. Follow-up: comp.parallel
  25550. Path: bounce-back
  25551. Newsgroups: comp.parallel
  25552. From: edsr!jlb@uunet.UU.NET (Jeff Buchmiller)
  25553. Subject: Re: The Future of Parallel Computing
  25554. Reply-To: edsr!jlb@uunet.UU.NET
  25555. Organization: Electronic Data Systems
  25556.  
  25557. In <1993Nov4.163540.2008@hubcap.clemson.edu> elm@cs.berkeley.edu (ethan miller) writes:
  25558.  
  25559. >  The goal of compiling for parallel code should NOT
  25560. >necessarily be "the best possible code;" it should be "reasonably
  25561. >close to the best possible code."
  25562.  
  25563. PLEASE don't forget about portability.  If the same code can be compiled
  25564. onto multiple architectures, it will make the programmer's job MUCH MUCH
  25565. easier.  (Tune to architecture as needed, instead of rewrite from scratch.)
  25566.  
  25567. --jeff
  25568.  
  25569. -- 
  25570. Jeff Buchmiller   Electronic Data Systems R&D   Dallas, TX   jlb@edsr.eds.com
  25571. -----------------------------------------------------------------------------
  25572. Disclaimer: This E-mail/article is not an official business record of EDS.
  25573.             Any opinions expressed do not necessarily represent those of EDS.
  25574.  
  25575. Approved: parallel@hubcap.clemson.edu
  25576. Follow-up: comp.parallel
  25577. Path: bounce-back
  25578. Newsgroups: comp.parallel
  25579. From: bodhi@cc.gatech.edu ()
  25580. Subject: MP OS Survey available in anon. ftp site
  25581. Organization: College of Computing, Georgia Tech
  25582. Date: Tue, 9 Nov 1993 00:27:56 GMT
  25583. Apparently-To: comp-parallel@gatech.edu
  25584.  
  25585. Hi,
  25586.     Finally, I have been able to put a draft of the multiprocessor 
  25587.     operating system survey (which I have been promising for
  25588.     a while) in the ftp site of our school. You can get a copy 
  25589.     by anonymous ftp from
  25590.     ftp.cc.gatech.edu. The paper is in /pub/bodhi/ossurvey.ps.Z.
  25591.         
  25592.     Since, there were so many mail asking for a copy of
  25593.     the paper, I just spent some time updating the survey.
  25594.     That was the main reason why I took one week instead of
  25595.     a couple of days (:-)).
  25596.  
  25597.     I am sending this draft of the paper to ACM Computing Surveys. 
  25598.     I am sure that I have missed a lot of the important (and interesting)
  25599.     work. So, I will really like to hear your opinion about
  25600.         (1) the structure of the survey
  25601.         (2) technical contents
  25602.         (3) what more should I include
  25603.         (4) what should I get rid of
  25604.  
  25605.     I will try to include your suggestions in the final draft (if
  25606.     it gets accepted). I will really appreciate any input/criticism 
  25607.     to make it a better paper.
  25608.  
  25609.     I am planning to send the file by e-mail to all of you who
  25610.     has sent me mail. However since the file is rather large (70+4 pages),
  25611.     some mailers might create problems .. So, please let me know
  25612.     if you haven't received the paper in next 2 days (and you do *not*
  25613.     have ftp access). I will make some alternative arrangements.
  25614.  
  25615.     *NOTE*: If you haven't sent me a mail yet, and you will like
  25616.     to ftp the paper, and if you want to get futures updates on the 
  25617.     survey     please e-mail me a note ..
  25618.  
  25619.     Here is the abstract of the paper once again:
  25620. -----------------------------------------------------------------------------
  25621.     Title: A Survey of Multiprocessor Operating System Kernels
  25622.  
  25623.     ABSTRACT: 
  25624.     Multiprocessors have been accepted as vehicles for improved computing
  25625.     speeds, cost/performance, and enhanced reliability or availability.
  25626.     However, the added performance requirements of user programs and
  25627.     functional capabilities of parallel hardware introduce new challenges 
  25628.     to operating system design and implementation.
  25629.  
  25630.     This paper reviews research and commercial developments in
  25631.     multiprocessor operating system kernels from the late 1970's to
  25632.     the early 1990's.
  25633.     The paper first discusses some common operating system
  25634.     structuring techniques and examines the advantages and disadvantages 
  25635.     of using each technique. It then identifies some of the major 
  25636.     design goals and key issues in multiprocessor operating systems. 
  25637.     Issues and solution approaches are illustrated by review of a variety 
  25638.     of research or commercial multiprocessor operating system kernels.
  25639. -------------------------------------------------------------------------
  25640.  
  25641.     *Real Time Survey*: A colleague of mine is currently working on the
  25642.     paper. He will post a news in this group as soon as it is ready.
  25643.  
  25644. Cheers,
  25645.  
  25646.  
  25647. -----------------------------------------------------------------
  25648. MUKHERJEE,BODHISATTWA
  25649. Georgia Institute of Technology, Atlanta Georgia, 30332
  25650. uucp: ...!{allegra,amd,hplabs,seismo,ut-ngp}!gatech!prism!gt3165c
  25651. ARPA: bodhi@cc.gatech.edu
  25652.  
  25653. Approved: parallel@hubcap.clemson.edu
  25654. Follow-up: comp.parallel
  25655. Path: bounce-back
  25656. Newsgroups: comp.parallel
  25657. From: David Kanecki <kanecki@cs.uwp.edu>
  25658. Subject: Emergency Management/Planning Newsletter
  25659.  
  25660.  
  25661.   ------------------------------------------------------------------------------
  25662.   ------------------------------------------------------------------------------
  25663.         E M E R G E N C Y   M A N A G E M E N T / P L A N N I N G
  25664.                            N E W S L E T T E R
  25665.   ------------------------------------------------------------------------------
  25666.                    Volume 1, Issue 3, November 8, 1993                             
  25667.               Moderator: David H. Kanecki, A.C.S., Bio. Sci.
  25668.   ==============================================================================
  25669.   To obtain the newsletter or send information, please contact:
  25670.        kanecki@cs.uwp.edu 
  25671.             or
  25672.        David H. Kanecki, A.C.S., Bio. Sci.
  25673.        P.O. Box 26944
  25674.        Wauwatosa, WI 53226-0944
  25675.   
  25676.                           Contents of this Issue
  25677.                          -----------------------
  25678.   1. Papers received for Simulation for Emergency Management Conference
  25679.   
  25680.   2. New Products
  25681.   
  25682.   3. Thoughts on Emergency Management - Goals
  25683.   ==============================================================================
  25684.   1. PAPERS RECEIVED for Simulation for Emergency Management Conference, 
  25685.   April 11-14, 1994, San Diego.
  25686.   
  25687.   By  David  H. Kanecki, A.C.S., Bio. Sci., Associate Vice  President  - 
  25688.   Emergency Management Technical Activity
  25689.   
  25690.        To  show the quality of papers being presented to the  Simulation 
  25691.   for  Emergency Management Conference, I would like to give a  synopsis 
  25692.   of some of the papers.
  25693.   
  25694.        In  one paper, two persons describe a system to aid  in  building 
  25695.   operation.  The system allows person to simulate the air quality in  a 
  25696.   building  when an emergency condition exist. Due to  this  simulation, 
  25697.   the  building can be modified to improve the air quality  in  emergen-
  25698.   cies.
  25699.   
  25700.        In  another paper,  3 persons describe how a simulation can  help 
  25701.   improve the effectiveness of relief efforts. With this simulation, the 
  25702.   authors  have been able to identify the time, place,  and  conditions. 
  25703.   Thus, the simulations can be used to make recommendations.
  25704.   
  25705.        In yet another paper, 1 person describes a method on how to  make 
  25706.   emergency  management simulations more accurate. With this  technique, 
  25707.   the simulation can better model the actual environment.
  25708.   
  25709.        In these descriptions, there are 6 persons involved in three  differ-
  25710.   ent  areas  of Simulation for Emergency Management.  The  first  paper 
  25711.   concentrated on a resource. The second paper mentioned concentrated on 
  25712.   a area. Lastly, the third paper mentioned concentrated on a system. 
  25713.   
  25714.        Therefore, simulation for Emergency Management is a big field and 
  25715.   needs  everyone who can help. If you would like to submit a  paper  or 
  25716.   attend the April 11-14, 1994 conference in San Diego please write to:
  25717.   
  25718.             Society for Computer Simulation
  25719.             c/o Emergency Management, SMC '94
  25720.             P.O. Box 17900
  25721.             San Diego, CA 92177
  25722.   
  25723.   Papers can be submitted until December 20th.
  25724.   
  25725.   2. NEW PRODUCTS
  25726.  
  25727.   
  25728.   By David H. Kanecki, A.C.S., Bio. Sci.
  25729.   
  25730.        Please note -- I am relaying information that I have recived on a 
  25731.   professional basis. I am not affiliated with the companies mentioned.
  25732.   
  25733.        Recently,  I  have received a flyer from Powersim(tm)  about  its 
  25734.   dynamic modeling and simulation package that is available for 386 with 
  25735.   MS-Windows.  The program is designed to work in management,  industry, 
  25736.   ecology/environment, science, and education and training. To find  out 
  25737.   more  about  the  program contact: Powersim AS, P.O.  Box  42,  N-4871 
  25738.   Fevik, Norway or e-mail: josgo@modeld.no
  25739.   
  25740.        Also,  I have received from Elsevier publishing, an  announcement 
  25741.   for  a new journal. The journal is entitled "Computer  Science"  which 
  25742.   covers 10 topical areas and 15 fields of endeavor. 
  25743.   
  25744.        Finally,  Integrated  Systems send me a flyer on  the  family  of 
  25745.   program available through its Matrix X product. The three families are 
  25746.   matrix  math  for design and analysis, systemBuild for  modelling  and 
  25747.   simulation,  and AutoCode/AC-100 for code generation and rapid  proto-
  25748.   typing. 
  25749.   
  25750.   3. THOUGHTS ON EMERGENCY MANAGEMENT - GOALS
  25751.   
  25752.   By David H. Kanecki, A.C.S., Bio. Sci.
  25753.   
  25754.        In  emergency management, it is important to have a goal. A  goal 
  25755.   acts  a  marker  and guidepost for someone to navigate  to.  Thus,  no 
  25756.   matter what type of navigation is used, the goal is there for them  to 
  25757.   go to. 
  25758.   
  25759.        Based  on  the Kanecki family writing, a goal  was  described  as 
  25760.   this:
  25761.        "Health,  Vitality,  Egotism, Isolation,  Education,  Experience, 
  25762.   Expertise, Open Mindedness, Skill, Honest, Awareness, Quality,  Integ-
  25763.   rity, Leadership. 'A person who can correlate key details of all  into 
  25764.   goals,  objectives, and plans, utilizing available or  new  resources, 
  25765.   using good system management understanding, logic, and decisions  will 
  25766.   succeed.  Remember, goals also need the involvement of people  working 
  25767.   together.'"
  25768.   
  25769.  
  25770.  
  25771.  
  25772. w
  25773.  
  25774. Approved: parallel@hubcap.clemson.edu
  25775. Follow-up: comp.parallel
  25776. Path: bounce-back
  25777. Newsgroups: comp.parallel
  25778. From: ukeller@sun1.pallas-gmbh.de (Udo Keller)
  25779. Subject: PARMACS V6.0 available for Workstations
  25780. Organization: PALLAS GmbH
  25781.  
  25782. Bruehl, Germany, Nov 9, 1993:
  25783. PALLAS announces product availability for the workstation version of PARMACS V6.0.
  25784.  
  25785. PARMACS is a machine-independent message-passing interface for parallel computers
  25786. and workstation networks that has become the European de-facto standard in the
  25787. field of industrial parallel applications. PARMACS has been chosen not only in 
  25788. most industrial software developments, but also in Esprit projects, for the
  25789. production codes in the RAPS consortium, and in major European benchmark
  25790. activities.
  25791.  
  25792. PARMACS V6.0 comes along with a library interface for FORTRAN and C and is fully
  25793.              backwards compatible to PARMACS V5.1.
  25794.  
  25795. PARMACS V6.0 supports load balancing, heterogenous networks, and is available for
  25796.              DEC Alpha and MIPS based systems,
  25797.              HP 9000 model 700 series,
  25798.              IBM RS/6000 series,
  25799.              SGI Iris series,
  25800.              SUN SPARCstation series.
  25801.  
  25802. Special subscription conditions both for upgrade and new users are obtainable
  25803. until Dec 31, 1993. Contact PALLAS for details.
  25804. -- 
  25805. ----------------------------------------------------------------------------
  25806. Udo Keller                      phone      :    +49-2232-1896-0
  25807. PALLAS GmbH                     fax        :    +49-2232-1896-29
  25808. Hermuelheimer Str.10            direct line:    +49-2232-1896-15
  25809. D-50321 Bruehl                  email      :    ukeller@pallas-gmbh.de
  25810. ----------------------------------------------------------------------------
  25811.  
  25812. Approved: parallel@hubcap.clemson.edu
  25813. Follow-up: comp.parallel
  25814. Path: bounce-back
  25815. Newsgroups: comp.parallel
  25816. From: "Stephanie A. Stotland" <sas6r@amsun29.apma.virginia.edu>
  25817. Subject: Heterogeneous Networks
  25818. Organization: University of Virginia
  25819.  
  25820. I am looking for information on how to create a distributed
  25821. computing environment.  I would like to develop high speed
  25822. networks, coupled with workstations and high performance 
  25823. computers.  I am familar with parallel processing on a high
  25824. performance computer, but would
  25825. like to extend this to heterogenous networks.  Is there 
  25826. existing software out there?  Are there references that could
  25827. get me started?
  25828.  
  25829. Please respond by email.
  25830. Thank you,
  25831. Stephanie Stotlandd
  25832. sas6r@virginia.edu   
  25833.  
  25834. Approved: parallel@hubcap.clemson.edu
  25835. Follow-up: comp.parallel
  25836. Path: bounce-back
  25837. Newsgroups: comp.parallel
  25838. From: stgprao@st.unocal.COM (Richard Ottolini)
  25839. Subject: Re: Tuple space, What is it ????
  25840. Organization: Unocal Corporation
  25841. References: <1993Nov5.133422.9205@hubcap.clemson.edu> <1993Nov8.213735.10734@hubcap.clemson.edu>
  25842.  
  25843.  
  25844. Tuples are also used in database terminology- two or more fields associated together.
  25845. There is a formal algebra of operations transforming tuples when normalizing
  25846. or joining databases.
  25847.  
  25848. Approved: parallel@hubcap.clemson.edu
  25849. Follow-up: comp.parallel
  25850. Path: bounce-back
  25851. Newsgroups: comp.parallel
  25852. From: adamg@compnews.co.uk (Adam Greenwood)
  25853. Subject: The Future of Parallel Computing
  25854. Organization: Computer Newspaper Services, Howden, UK.
  25855.  
  25856. >   We are now in an age when the high performance machines have
  25857. >various data network topologies, i.e. meshes, torii, linear arrays,
  25858. >vector processors, hypercubes, fat-trees, switching networks, etc..
  25859. >etc.. These parallel machines might all have sexy architectures, but
  25860. >we are headed in the wrong direction if we don't take a step back and
  25861. >look at the future of our work.  We shouldn't have to rewrite our
  25862. >algorithms from scratch each time our vendor sells us the latest
  25863. >hardware with amazing benchmarks.  Benchmarks should also be
  25864. >attainable from STANDARD compiler options.  We should NOT have to
  25865. >streamline routines in assembly language, give data layout directives,
  25866. >nor understand the complexities of the hardware and/or data network.
  25867. >
  25868. >  Please let me know what you think,
  25869.  
  25870. I think the time has come for software engineering to catch up with 
  25871. hardware engineering in the parallel computing world. Parallel computing
  25872. is at an important point right now. It's been proven in the scientific 
  25873. world, but not the commercial world, and I don't think the commercial
  25874. world puts up with the lack of support for it's harwdare that researchers
  25875. do. After all, isn't that half the fun of research? Making this new box
  25876. do some clever tricks? :).
  25877.  
  25878. A few replies to this thread have taken the line that scientific 
  25879. computing is quite happy to have to 'streamline code', or in other
  25880. words hack routines in assembly language. As a software engineer who 
  25881. moved into parallel computing, I have some fundamental problems with this,
  25882. but I am prepared to let them pass and ask one question: Is scientific
  25883. computing the only future for Parallel Processing? That's the subject
  25884. of this thread, remember, the _future_ of Parallelism. Whether you need
  25885. a few low-level hacks for you scientific research right now has little
  25886. bearing on whether, in the future, other potential users of parallel
  25887. systems will think the same.
  25888.  
  25889. I think there's even a chance that the suitability of parallel processors
  25890. to scientific and engineering applications is damaging the chances
  25891. of the commercial world ever benefiting from the potential.
  25892.  
  25893. This is all IMHO, of course, and I might be over-reacting, but I do think
  25894. more can be made of the potential of Parallel Systems if a few attitudes
  25895. were changed a bit. This wasn't meant to be a flame against scientic
  25896. use if parallel computing... without that, there wouldn't be any. :)
  25897.  
  25898. Adam
  25899.  
  25900.  
  25901. --
  25902.  O=========================================O======================O
  25903.  | Adam Greenwood, ISPS, CNS               |                      |
  25904.  | email adamg@compnews.co.uk              |  My opinions don't   |
  25905.  | phone (0430) 432480 x27                 |  reflect anything,   |
  25906.  O=========================================O  and that includes   |
  25907.  | "Good morning Mr Tyler, going... down?" |  the opinions of     |
  25908.  |                     - Aerosmith -       |  anyone else.        |
  25909.  |                 'Love in an Elevator'   |                      |
  25910.  O=========================================O======================O
  25911.  
  25912. Approved: parallel@hubcap.clemson.edu
  25913. Follow-up: comp.parallel
  25914. Path: bounce-back
  25915. Newsgroups: comp.parallel
  25916. Subject: SC'93 BOF
  25917. Organization: Cornell Theory Center
  25918.  
  25919. Computer, Computational and Discipline Scientists
  25920.  
  25921. NSF and NASA have begun a joint project to evaluate the effectiveness of
  25922. Scalable Parallel Computing systems (SPC) under credible scientific
  25923. workloads on a wide variety of SPC's.  We want to stress that the goal is
  25924. not benchmarking, but rather evaluation and understanding of the current
  25925. and emerging SPCs that exist at both agencies, and to provide information
  25926. to the large user community that both agencies support, as well as to the
  25927. vendors of the SPC systems.
  25928.  
  25929. The project name is the Joint NSF/NASA Initiative in Evaluation  (called
  25930. JNNIE and pronounced genie) and will be described at a Birds of a Feather
  25931. session (BOF) at Supercomputing 93, Wednesday, November 17 at 2PM in room
  25932. A107.  The BOF will give an overview of JNNIE, provide early case studies
  25933. and anecdotal information on machine usability that have been collected to
  25934. date. We will also describe the planned phase II approach. 
  25935.  
  25936. The purpose of the session is to inform the community at large of the JNNIE
  25937. enterprise, elicit feedback, comment and possible refinement of the overall
  25938. plan.  We expect the JNNIE initiative to influence the evolution of HPC
  25939. system hardware and software, algorithms, and applications to better serve
  25940. the needs of the computational science community. We invite you to attend
  25941. the BOF to learn about the project and to give us the benefit of your
  25942. insight and opinions of it.
  25943.  
  25944. Approved: parallel@hubcap.clemson.edu
  25945. Follow-up: comp.parallel
  25946. Path: bounce-back
  25947. Newsgroups: comp.parallel
  25948. From: ben@carie.mcs.mu.edu (Benjamin J. Black)
  25949. Subject: Re: The Future of Parallel Computing
  25950. Date: 9 Nov 1993 17:33:07 GMT
  25951. Organization: Marquette University - Dept. Math, Statistics, & Comp. Sci.
  25952. References: <1993Nov9.163338.9165@hubcap.clemson.edu>
  25953. Nntp-Posting-Host: carie.mcs.mu.edu
  25954.  
  25955. In article <1993Nov9.163338.9165@hubcap.clemson.edu> edsr!jlb@uunet.UU.NET (Jeff  
  25956. Buchmiller) writes:
  25957. > In <1993Nov4.163540.2008@hubcap.clemson.edu> elm@cs.berkeley.edu (ethan miller) writes:
  25958. > >  The goal of compiling for parallel code should NOT
  25959. > >necessarily be "the best possible code;" it should be "reasonably
  25960. > >close to the best possible code."
  25961. > PLEASE don't forget about portability.  If the same code can be compiled
  25962. > onto multiple architectures, it will make the programmer's job MUCH MUCH
  25963. > easier.  (Tune to architecture as needed, instead of rewrite from scratch.)
  25964.  
  25965.  
  25966. Anybody think the paralation model is a good solution to the portability vs. efficiency  
  25967. problem?
  25968.  
  25969. Ben
  25970. ben@carie.mcs.mu.edu
  25971.  
  25972. Approved: parallel@hubcap.clemson.edu
  25973. Follow-up: comp.parallel
  25974. Path: bounce-back
  25975. Newsgroups: comp.parallel
  25976. From: elm@cs.berkeley.edu (ethan miller)
  25977. Subject: Re: The Future of Parallel Computing
  25978. Organization: Berkeley--Shaken, not Stirred
  25979. References: <1993Nov9.163338.9165@hubcap.clemson.edu>
  25980. Reply-To: elm@cs.berkeley.edu
  25981.  
  25982. >>>>> "Jeff" == Jeff Buchmiller <edsr!jlb@uunet.UU.NET> writes:
  25983. elm> The goal of compiling for parallel code should NOT necessarily be
  25984. elm> "the best possible code;" it should be "reasonably close to the
  25985. elm> best possible code."
  25986.  
  25987. Jeff> PLEASE don't forget about portability.  If the same code can be
  25988. Jeff> compiled onto multiple architectures, it will make the
  25989. Jeff> programmer's job MUCH MUCH easier.  (Tune to architecture as
  25990. Jeff> needed, instead of rewrite from scratch.)
  25991.  
  25992. I agree 100%.  Look at how serial programs work -- under Unix and
  25993. derivatives, many programs don't need to be modified to compile for
  25994. different architectures.  This is especially true of user applications
  25995. (as opposed to OS-type software).  My hope is that, eventually, people
  25996. will be able to switch from MPP A to MPP B merely by recompiling all
  25997. of their code (perhaps with a few changes of #include files or
  25998. predefined constants).  In order for this to happen, though, the
  25999. community must realize that a loss of a few percent of performance in
  26000. exchange for portability and ease of coding and maintenance is
  26001. acceptable for MPPs.
  26002.  
  26003. ethan
  26004. --
  26005. +---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+---+
  26006. ethan miller--cs grad student   | "Why is it whatever we don't
  26007. elm@cs.berkeley.edu             |  understand is called a 'thing'?"
  26008. #include <std/disclaimer.h>     |  -- "Bones" McCoy
  26009.  
  26010. Approved: parallel@hubcap.clemson.edu
  26011. Follow-up: comp.parallel
  26012. Path: bounce-back
  26013. Newsgroups: comp.parallel
  26014. From: hbchen@cse.uta.edu (Hsing B Chen)
  26015. Subject: Final CFP- 5th IEEE Sym. on Parallel and Distributed Processing
  26016. Organization: Computer Science Engineering at the University of Texas at Arlington
  26017.  
  26018. =====================================================================
  26019.  
  26020.     Final Call for participation  IEEE 5th SPDP, 1993
  26021.              Dallas, Texas   
  26022.  
  26023. =====================================================================
  26024.  
  26025.                FIFTH IEEE SYMPOSIUM ON
  26026.          PARALLEL AND DISTRIBUTED PROCESSING
  26027.  
  26028. Sponsors: IEEE-Computer Society and IEEE-CS-Dallas Chapter
  26029.  
  26030.  Omni Mandalay Hotel, Irving, Texas - December 1-4, 1993
  26031.  
  26032. This symposium provides a forum for the presentation and exchange of
  26033. current work on a wide variety of topics in parallel and distributed
  26034. processing including: 
  26035.  
  26036. Computer Architecture            Neural Networks
  26037. Artificial Intelligence            Simulation and Modeling 
  26038. Programming Languages            Interconnection Networks
  26039. Parallel Algorithms            Distributed Computing
  26040. Operating Systems            Scheduling        
  26041. VLSI Systems Design            Parallel Applications
  26042. Database and Knowledge-base Systems
  26043.  
  26044. The technical program will be held on December 1-3, 1993 and the 
  26045. tutorials will be held on December 4, 1993.
  26046.  
  26047. Tutorials:
  26048.  
  26049. Full-day Tutorials (December 4: 9:00 am - 5:30 pm):
  26050. T1:  Roles of Optics in Parallel Computing and High-Speed
  26051.     Communications, Ahmed Louri, Univ. of Arizona. 
  26052. T2:  Functional Programming, Patrick Miller and John Feo, 
  26053.     Lawrence Livermore National Laboratory.
  26054.  
  26055. Half-day Tutorials (December 4):
  26056. T3: (9:00 am - 12:30 pm): Instruction Scheduling, Barbara Simons 
  26057.     and Vivek Sarkar, IBM Corp.
  26058. T4: (2:00 pm - 5:30 pm): Software Systems and Tools for 
  26059.     Distributed Programming, Anand Tripathi, University of
  26060.     Minnesota. 
  26061.  
  26062. Hotel Reservations:
  26063.  
  26064. Please place your reservations directly with Omni Mandalay Hotel 
  26065. at Las Colinas, 221 East Las Colinas Blvd., Irving, Texas 75039, 
  26066. Tel: (214) 556-0800, Or (800) 843-6664.  You must mention that 
  26067. you are attending SPDP in order to receive the special symposium 
  26068. rate of $94/night for a single or a double room.  Please check with 
  26069. the reservations desk for the applicability of other special rates, 
  26070. such as those available to AAA members.  Reservations should be 
  26071. made before November 16, 1993.  After this date, reservations are 
  26072. subject to space availability.
  26073.  
  26074. Directions:
  26075.  
  26076. Omni Mandalay Hotel, the conference site, is located in the Las 
  26077. Colinas development area in the city of Irving (a suburb of Dallas).  
  26078. The hotel is about 10 minutes from the Dallas/Fort Worth (DFW)
  26079. International Airport. 
  26080.  
  26081. By Car: Take DFW Int'l Airport north exit.  Take Highway 114 
  26082. East towards Dallas, go approximately 8 miles to OConnor Road 
  26083. Exit.  Turn left, go two blocks, turn right on Las Colinas Blvd.
  26084. The hotel will be 200 yards on the left.
  26085.  
  26086. Shuttle Service:  Super Shuttle provides van service from DFW 
  26087. Int'l Airport to the Omni Mandalay for $8.50 per person each way.  
  26088. For more information and reservations, call 817-329-2002.
  26089.  
  26090. Weather:  Dallas weather in early December ranges from low 40's 
  26091. to high 60's Fahrenheit.
  26092.  
  26093. ++++++++++++++++++++++++++++++++                     N
  26094. City Irving and City Las Colinas                    W+E
  26095. ++++++++++++++++++++++++++++++++                     S
  26096.                            O 
  26097.      ----------------------O--------------    
  26098.      |  (IRVING City)      O             |
  26099. ================Highway 114=========     |
  26100.      |                   __O_____   \    |       Dallas City
  26101.      |  D/FW             | O    |    \   |
  26102.      |  Airport          | O (*)|     \  |
  26103.      |                   | O  LC|      \ | 
  26104.      |                   --O-----    _  \|
  26105.      |                     O        (B)  \ 
  26106.      |                     O         -   |\
  26107. ===========================O================Highway 183==
  26108.      |                     O             |               \
  26109.      |                     O             |                \
  26110.      |                     O             |                 \
  26111.      |                     O             | 
  26112.      |                     O             |
  26113.      ------------------------------------
  26114.                            O
  26115.  Legend-
  26116.  LC: City Las Colinas
  26117.  *:  Omni Mandalay Hotel (SPDP location)
  26118.  B:  Dallas Cowboys Football Stadium (Texas Stadium) 
  26119.  O:  O'Connor Rd.
  26120.  
  26121. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
  26122. PLEASE SEND REGISTRATION FORM AND PAYMENT (payable to SPDP) TO:
  26123. Dr. Behrooz Shirazi, University of Texas at Arlington, Dept. of
  26124. Computer Science & Engineering, 416 Yates, Room 300, Arlington, TX
  26125. 76019, Tel: (817) 273-3605, Fax: (817)273-3784, E-mail:
  26126. shirazi@cse.uta.edu. 
  26127.  
  26128. The symposium registration includes the symposium proceedings, 
  26129. banquet, and luncheon.  Student registration does not include the 
  26130. symposium proceedings or the luncheon.
  26131.  
  26132. (Advance Registration:  Before 11/19/93.)
  26133.  
  26134.             IEEE Members    Non-Members    Students
  26135. Advance Registration:
  26136. Symposium:        US$260        US$325        US$100
  26137. Full-day Tutorial:    US$220        US$275        US$220
  26138. Half-day Tutorial:    US$110        US$140        US$110
  26139.  
  26140. On-site Registration
  26141. Symposium:        US$310        US$385        US$120
  26142. Full-day Tutorial:    US$265        US$330        US$265
  26143. Half-day Tutorial:    US$135        US$165        US$135
  26144.  
  26145. IEEE Member:____      Non-Member:____     Student:____    
  26146. IEEE/Student No.:_______________________
  26147.  
  26148. Symposium:    $_______            
  26149. Tutorial:       $_______, Specify choice of tutorial(s): T____
  26150. Total:       $_______            
  26151.  
  26152. _____Check enclosed, USA BANKS ONLY (payable to SPDP)
  26153. ____Credit Card (VISA or Master Card ONLY)
  26154. VISA___ or Master Card___
  26155. Credit Card No.:____________________________________
  26156. Expiration Date:____________  
  26157. Signature:_____________________________
  26158.  
  26159. Last Name:_____________________________ 
  26160.  
  26161. First Name:________________________ Middle Initial:______
  26162.  
  26163. Organization: __________________________________________
  26164.  
  26165. Address:  _____________________________________________
  26166.     _______________________________________________
  26167.  
  26168. City, State,Zip/Country:__________________________________
  26169.  
  26170. Phone: ___________________,  Fax: ____________________
  26171.  
  26172. E-mail:_______________________________
  26173.  
  26174. =======================================================================
  26175.  
  26176.                     Technical Program
  26177.    Fifth IEEE Symposium on Parallel and Distributed Processing
  26178.  Sponsors: IEEE-Computer Society and IEEE-CS-Dallas Chapter
  26179.              Omni Mandalay Hotel, Irving, Texas
  26180.                     December 1-4, 1993
  26181.  
  26182. Note:    L: 30-minute Presentation
  26183.     S: 15-minute Presentation
  26184.  
  26185. Wednesday, December 1, 1993
  26186.  
  26187. 8:30-9:30 am: On-site Registration - Conference material available 
  26188. at the Registration Desk
  26189. 9:30-10:00 am: Opening and Awards Session (Mandalay West)
  26190. 10:00-10:30 am: Break
  26191.  
  26192.         10:30-12:00 noon
  26193. Session A-1: Applications & Experimental Results I (Mandalay 
  26194. West)
  26195. Chair: Simin Pakzad (Penn State University)
  26196. L:  Total Exchange on a Reconfigurable Parallel Architecture - by 
  26197. Yuh-Dauh Lyuu, Eugen Schenfeld
  26198. L:  Experimental Evaluation of Performance and Scalability of a 
  26199. Multiprogrammed Shared-Memory Multiprocessor - by Chitra 
  26200. Natarajan, Ravi Iyer
  26201. S:  Parallel Bidirectional A* Search on a Symmetry Multiprocessor 
  26202. - by Andrew Sohn
  26203. S:  Characterizing Execution Behavior of Application Programs on 
  26204. Network-based Shared-memory Mutiprocessors - by Xiaodong 
  26205. Zhang, Keqiang He, Elisa W. Chan
  26206.  
  26207. Session B-1: Architecture I (Martaban)
  26208. Chair: S. Lakshmivarahan (Univ. of Oklahoma)
  26209. L: The Meerkat Multicomputer - by Robert Bedichek, Curtis 
  26210. Brown
  26211. L: Correctness of a Directory-Based Cache Coherence Protocol:  
  26212. Early Experience - by Fong Pong, Michel Dubois
  26213. S: Cache Design for an Explicit Token Store Data Flow 
  26214. Architecture - by P. Shanmugam, Shirish Andhare, Krishna Kavi, 
  26215. Behrooz Shirazi
  26216. S: Architectural Support for Block Transfers in a Shared Memory 
  26217. Multiprocessor - by Steven J. E. Wilton, Zvonko G. Vranesic
  26218.  
  26219. Session C-1: Wormhole Routing (Rangoon)
  26220. Chair: Robert Cypher (IBM Almaden)
  26221. L: Universal Wormhole Routing - by R. Greenberg and H. C. Oh
  26222. L: A New Theory of Deadlock-free Adaptive Multicast Routing in 
  26223. Wormhole Networks - by J. Duato
  26224. L: Adaptive Wormhole Routing in Hypercube Multicomputers - by 
  26225. X. Lin, A-H. Esfahanian, P.K. McKinley, A. Burago
  26226.  
  26227. 12:00 - 1:30 pm: LUNCH
  26228.  
  26229.         1:30 - 3:00 pm
  26230. Session A-2: Storage Management (Mandalay West)
  26231. Chair: Margaret Eich (SMU)
  26232. L: Parallel Dynamic Storage Allocation Algorithms - by Arun 
  26233. Iyengar
  26234. L: Storage Schemes for Parallel Memory Systems: An Approach 
  26235. Based on Circulant Matrices - by Cengiz Erbas, Murat M. Tanik, 
  26236. V. S. S. Nair
  26237. S: Parallel Garbage Collection and Graph Reducer - by Wen-Yan 
  26238. Kuo, Sy-Yen Kuo
  26239.  
  26240. Session B-2: Multithreading (Martaban)
  26241. Chair: Krishna Kavi (NSF)
  26242. L: An Evaluation of Software Multithreading in a Conventional 
  26243. Distributed Memory Multiprocessor - by Matthew Haines, Wim 
  26244. Bohm
  26245. L: Analysis of Multithreaded Multiprocessors with Distributed 
  26246. Shared Memory - by Shashank S. Nemawarkar, R. Govindarajan, 
  26247. Guang R. Gao, Vinod K. Agarwal
  26248. S: RICA:  Reduced Interprocessor Communication Architecture - 
  26249. by Shuichi Sakai, Y. Kodama, M. Sato, A. Shaw, et al.
  26250.  
  26251. Session C-2: Applications I (Rangoon)
  26252. Chair: Phil Gibbons (ATT Bell Laboratories)
  26253. L: Solving Markov Chains Using Bounded Aggregation on a 
  26254. Massively Parallel Processor - by R.B. Mattingly
  26255. L: Direct and Iterative Parallel Methods for Boundary Value 
  26256. Problems - by I. Gladwell, G.Kraut
  26257. L: Efficient Parallel Sibling Finding for Quadtree Data Structure - 
  26258. by D. Doctor and I. Sudborough
  26259.  
  26260. 3:00 - 3:30 pm: BREAK
  26261.  
  26262.         3:30 - 5:00 pm
  26263. Session A-3: Interconnection Networks/ Routing  I (Mandalay 
  26264. West)
  26265. Chair: Nian-Feng Tzeng (USL)
  26266. L: Analysis of Interconnection Networks Based on Simple Cayley 
  26267. Coset Graphs - by Jen-Peng Huang, S. Lakshmivarahan, S. K. 
  26268. Dhall
  26269. L:  An Efficient Routing Scheme for Scalable Hierarchical 
  26270. Networks - by Hyunmin Park, Dharma P. Agrawal
  26271. S:  Performance Evaluation of Idealized Adaptive Routing on k-ary 
  26272. n-cubes - by A. Lagman, W. A. Najjar, S. Sur, P. Srimani
  26273. S:  The B&E Model for Adoptable Wormhole Routing - by 
  26274. Xiaowei Shen, Y. S. Cheung
  26275.  
  26276. Session B-3: Performance Evaluation I (Martaban)
  26277. Chair: Diane Cook (UT-Arlington)
  26278. L:  Comparative Performance Analysis and Evaluation of Hot Spots 
  26279. on MIN-Based and HR-Based Shared-Memory Architectures - by 
  26280. Xiaodong Zhang, Yong Yan, Robert Castaneda
  26281. L:  Application of Parallel Disks for Efficient Handling of Object-
  26282. Oriented Databases - by Y. C. Chehadeh, A. R. Hurson, L. L. 
  26283. Miller, B. N. Jamoussi
  26284. S:  The Parallel State Processor Model - by I. Gottlieb, L. Biran
  26285.  
  26286. Session C-3: Geometric Algorithms (Rangoon)
  26287. Chair: Cynthia Phillips (Sandia Nat'l Lab)
  26288. L: Parallel Algorithms for Geometric Problems on Networks of 
  26289. Processors - by J. Tsay
  26290. L: Optimal Parallel Hypercube Algorithms for Polygon Problems - 
  26291. by M. Atallah, D. Chen
  26292. L: A Parallel Euclidean Distance Transformation Algorithm - by H. 
  26293. Embrechts, D. Roose
  26294.  
  26295. 5:00 - 6:00 pm: BREAK
  26296.  
  26297. 6:00 - 9:00 pm: CONFERENCE RECEPTION (Hors d'oeuvres 
  26298. and Cash Bar)
  26299.  
  26300. Thursday, December 2, 1993
  26301.  
  26302.         8:30 - 10:00 am
  26303. Session A-4: Distributed Systems I (Mandalay West)
  26304. Chair: Ray Liuzzi (Air Force Rome Labs)
  26305. L: An Efficient and Reliable Multicast Algorithm - by Rosario 
  26306. Aiello, Elena Pagani, Gian Paolo Rossi
  26307. L: An Efficient Load Balancing Algorithm in Distributed 
  26308. Computing Systems - by Jea-Cheoul Ryou, Jie-Yong Juang
  26309. S: Assertions about Past and Future: Communication in a High 
  26310. Performance Distributed System Highways- by Mohan Ahuja
  26311. S: Protocol Refinement for Maintaining Replicated Data in 
  26312. Distributed Systems - by D. Shou, Sheng-De Wang
  26313.  
  26314. Session B-4: Performance Evaluation II (Martaban)
  26315. Chair: Hee Yong Youn (UT-Arlington)
  26316. L: A Methodology for the Performance Prediction of Massively 
  26317. Parallel Applications - by Daniel Menasce, Sam H. Noh, Satish K. 
  26318. Tripathi
  26319. L: Determining External Contention Delay Due to Job Interactions 
  26320. in a 2-D Mesh Wormhole Routed Multicomputer - by Dugki Min, 
  26321. Matt W. Mutka
  26322. L: Simulated Behaviour of Large Scale SCI Rings and Tori - by H. 
  26323. Cha, R. Daniel Jr.
  26324.  
  26325. Session C-4: Mesh Computations (Rangoon)
  26326. Chair: Abhiram Ranade (UC- Berkeley)
  26327. L: Becoming a Better Host Through Origami: a Mesh is More Than 
  26328. Rows and Columns - by D. Greenberg, J. Park, E. Schwabe
  26329. L: Deterministic Permutation Routing on Meshes - by B. Chlebus, 
  26330. M. Kaufmann, J. Sibeyn
  26331. S: Dilation-5 Embedding of 3-Dimensional Grids into Hypercubes - 
  26332. by M. Chan, F. Chin, C. N. Chu, W. K. Mak
  26333.  
  26334. 10:00 - 10:30 am: BREAK
  26335.  
  26336.         10:30 - 12:00 noon
  26337. Session A-5: Applications and Experimental Results II (Mandalay 
  26338. West)
  26339. Chair: Doug Matzke (Texas Instruments)
  26340. L: Scalable Duplicate Pruning Strategies for Parallel A* Graph 
  26341. Search - by Nihar R. Mahapatra, Shantanu Dutt
  26342. L: A Parallel Implementation of a Hidden Markov Model with 
  26343. Duration Modeling for Speech Recognition - by C.D. Mitchell, 
  26344. R.A. Helzerman, L.H. Jamieson, M.P. Harper
  26345. S: Performance Comparison of the CM-5 and Intel Touchstone 
  26346. Delta for Data Parallel Operations - by Zeki Bozkus, Sanjay Ranka, 
  26347. Geoffrey Fox, Alok Choudhary
  26348.  
  26349. Session B-5: Interconnection Networks/Routing II (Martaban)
  26350. Chair: Laxmi Bhuyan (Texas A&M Univ.)
  26351. L: Analysis of Link Traffic in Incomplete Hypercubes - by Nian-
  26352. Feng Tzeng, Harish Kumar
  26353. L: Multicast Bitonic Network - by Majed Z. Al-Hajery, Kenneth E. 
  26354. Batcher
  26355. L: Valved Routing:  Implementing Traffic Control in Misrouting on 
  26356. Interconnection Network - by Wei-Kuo Liao, Chung-Ta King
  26357.  
  26358. Session C-5: Message-Passing Systems (Rangoon)
  26359. Chair: Sandeep Bhatt (Bellcore)
  26360. L: Computing Global Combine Operations in the Multi-Port Postal 
  26361. Model - by A. Bar-Noy, J. Bruck, C.T. Ho, S. Kipnis, B. Schieber
  26362. S: Broadcasting Multiple Messages in Simultaneous Send/Receive 
  26363. Systems  - by A. Bar-Noy, S. Kipnis
  26364. S: Fault Tolerant Broadcasting in SIMD Hypercubes - by Y. Chang
  26365. S: Notes on Maekawa's O(sqrt N) Distributed Mutual Exclusion 
  26366. Algorithm - by Ye-In Chang
  26367.  
  26368. 12:00 - 2:00 pm: CONFERENCE LUNCHEON and KEYNOTE 
  26369. SPEECH (Salon D)
  26370. Stephen L. Squires (Advanced Research Projects Agency)
  26371. High Performance Computing and National Scale Information 
  26372. Enterprises
  26373.  
  26374.         2:00 - 3:30 pm
  26375. Session A-6: Partitioning and Mapping I (Mandalay West)
  26376. Chair: Jeff Marquis (E-Systems)
  26377. L: Partitioning and Mapping a Class of Parallel Multiprocessor 
  26378. Simulation Models - by H. Sellami, S. Yalamanchili
  26379. L: An Efficient Mapping of Feed-Forward with Back Propagation 
  26380. ANNs on Hypercubes - by Q. M. Malluhi, M. A. Bayoumi, T. R. N. 
  26381. Rao
  26382. S: Data Partitioning for Networked Parallel Processing - by Phyllis 
  26383. E. Crandall, Michael J. Quinn
  26384.  
  26385. Session B-6: Architecture II (Martaban)
  26386. Chair: Dharma P. Agrawal (North Carolina State University)
  26387. L: Designing a Coprocessor for Recurrent Computations - by K. 
  26388. Ganapathy, B. Wah
  26389. L: Analysis of Control Parallelism in SIMD Instruction Streams - by 
  26390. J. Allen, V. Garg, D. E. Schimmel
  26391. L: Representation of Coherency Classes for Parallel Systems - by J. 
  26392. A. Keane, W. Hussak
  26393.  
  26394. Session C-6: Applications II (Rangoon)
  26395. Chair: Hal Sudborough (UT-Dallas)
  26396. L: A Parallel Lattice Basis Reduction for Mesh-Connected 
  26397. Processor Arrays and Parallel Complexity - by Ch. Heckler, L. 
  26398. Thiele
  26399. L: Parallel Network Dual Simplex Method on a Shared Memory 
  26400. Multiprocessor - by K. Thulasiraman, R.P. Chalasani, M.A. 
  26401. Comeau
  26402. S: Parallel Simulated Annealing by Generalized Speculative 
  26403. Computation - by Andrew Sohn, Zhihong Wu, Xue Jin
  26404.  
  26405. 3:30 - 4:00 pm: BREAK
  26406.  
  26407.         4:00 - 5:30 pm
  26408. Session A-7: Languages  I (Mandalay West)
  26409. Chair: Benjamin Wah (University of Illinois at Urbana-Champaign)
  26410. L: On the Granularity of Events when Modeling Program 
  26411. Executions - by Eric Leu, Andre Schiper
  26412. L: Cloning ADT Modules to Increase Parallelism: Rationale and 
  26413. Techniques - by Lonnie R. Welch
  26414. L: The Design and Implementation of Late Binding in a Distributed 
  26415. Programming Language - by Wenwey Hseush, Gail E. Kaiser
  26416.  
  26417. Session B-7: Reliability and Fault-Tolerance I (Martaban)
  26418. Chair: A. Waksman (Air Force)
  26419. L: Measures of Importance and Symmetry in Distributed Systems - 
  26420. by Mitchell L. Neilsen
  26421. S: Dependability Analysis for Large Systems: A Hierarchical 
  26422. Modeling Approach - by Teresa A. Dahlberg, Dharma P. Agrawal
  26423. L: An Adaptive System-Level Diagnosis Approach for Hypercube 
  26424. Multiprocessors - by C. Feng, L. N. Bhuyan, F. Lombardi
  26425.  
  26426. Session C-7: Distributed Algorithms (Rangoon)
  26427. Chair: Ioannis Tollis (UT-Dallas)
  26428. L: How to Share a Bounded Object: A Fast Timing-Based Solution 
  26429. - by R. Alur, G. Taubenfeld
  26430. L: Using Induction to Prove Properties of Distributed Programs - 
  26431. by V. Garg and A. Tomlinson
  26432. S: An Optimal Distributed Ear Decomposition Algorithm with 
  26433. Applications to Biconnectivity and Outer Planarity Testing - by A. 
  26434. Kazmierczak, S. Radhakrishnan
  26435. S: Group Membership in a Synchronous Distributed System - by G. 
  26436. Alari, A. Ciuffoletti
  26437.  
  26438. Friday, December 3, 1993
  26439.  
  26440.         8:30 - 10:00 am
  26441. Session A-8: Compilation (Mandalay West)
  26442. Chair: Paraskevas Evripidou (SMU)
  26443. L: Compiling Distributed C++ - by Harold Carr, Robert Kessler, 
  26444. Mark Swanson
  26445. L: ALIAS Environment:  A Compiler for Application Specific 
  26446. Arrays - by James J. Liu, Milos D. Ercegovac
  26447. L: An Algorithm to Automate Non-Unimodular Transformations of 
  26448. Loop Nests - by Jingling Xue
  26449.  
  26450. Session B-8: Languages II (Martaban)
  26451. Chair: Les Miller (Iowa State University)
  26452. L: Genie: An Environment for Partitioning Mapping in Embedded 
  26453. Multiprocessors - by S. Yalamanchili, L. Te Winkel, D. 
  26454. Perschbacher, B. Shenoy
  26455. L: Analysis of Affine Communication Specifications - by S. 
  26456. Rajopadhye
  26457. L: C-Linda Implementation of Distinct Element Model - by Siong 
  26458. K. Tang, Richard Zurawski
  26459.  
  26460. Session C-8: Fault-Tolerant Communication (Rangoon)
  26461. Chair: Yanjun Zhang (SMU)
  26462. L: Multicasting in Injured Hypercubes Using Limited Global 
  26463. Information  - by J. Wu, K. Yao
  26464. L: Fault-Tolerance Properties of deBruijn and Shuffle-Exchange 
  26465. Networks - by M. Baumslag
  26466. L: Communication Complexity of Fault-Tolerant Information 
  26467. Diffusion - by L. Gargano, A. Rescigno
  26468.  
  26469. 10:00 - 10:30 am: BREAK
  26470.  
  26471.         10:30 - 12:00 noon
  26472. Session A-9: Interconnection Networks/Routing III (Mandalay 
  26473. West)
  26474. Chair: Dhiraj K. Pradhan (Texas A&M)
  26475. L: Exact Solutions to Diameter and Routing Problems in PEC 
  26476. Networks - by C. S. Raghavendra, M. A. Sridhar
  26477. L: Folded Peterson Cube Networks:  New Competitors for the 
  26478. Hyper Cube - by Sabine Oehring, Sajal K. Das
  26479. S: A Unified Structure for Recursive Delta Networks - by P. 
  26480. Navaneethan, L. Jenkins
  26481. S: Recursive Diagonal Torus:  An Interconnection Network for 
  26482. Massively Parallel Computers - by Yulu Yang, H. Amano, H. 
  26483. Shibamura, T. Sueyoshi
  26484.  
  26485. Session B-9: Potpourri (Martaban)
  26486. Chair: Bill D. Carroll (UT-Arlington)
  26487. L: A Processor Allocation Strategy Using Cube Coalescing in 
  26488. Hypercube Multicomputers - by Geunmo Kim, Hyusoo Yoon
  26489. S: An Efficient Storage Protocol for Distributed Object Oriented 
  26490. Databases- by Min He, Les L. Miller, A. R. Hurson, D. Sheth
  26491. S: Performance Effects of Synchronization in Parallel Processors - 
  26492. by Roger D. Chamberlain, Mark A. Franklin
  26493. S: Compiling Distribution Directives in a FORTRAN 90D Compiler 
  26494. - by Z. Bozkus, A. Choudhary, G. Fox, T. Haupt, S. Ranka
  26495. S: A Proposed Parallel Architecture for Exploring Potential 
  26496. Concurrence at Run-Time - by M. F. Chang, Y. K. Chan
  26497.  
  26498. Session C-9: Parallel Algorithms (Rangoon)
  26499. Chair: Farhad Shahrokhi (University of North Texas)
  26500. L: Fast Rehashing in PRAM Emulations - by J. Keller
  26501. L: On the Furthest-Distance-First Principle for Data Scattering with 
  26502. Set-Up Time - by Y-D. Lyuu
  26503. L: Zero-One Sorting on the Mesh - by D. Krizanc and L. 
  26504. Narayanan
  26505.  
  26506. 12:00 - 1:30 pm: LUNCH
  26507.  
  26508.         1:30 - 3:00 pm
  26509. Session A-10: Distributed Systems II (Mandalay West)
  26510. Chair: Dan Moldovan (SMU)
  26511. L: Incremental Garbage Collection for Causal Relationship 
  26512. Computation in Distributed Systems - by R. Medina
  26513. S: STAR:  A Fault-Tolerant System for Distributed Applications - by B. 
  26514. Folliot, P. Sens
  26515. S: Flexible User-Definable Performance of Name Resolution 
  26516. Operation in Distributed File Systems - by Pradeep Kumar Sinha, 
  26517. Mamoru Maekawa
  26518. S: A Layered Distributed Program Debugger - by Wanlei Zhou
  26519. S: Distributed Algorithms on Edge Connectivity Problems - by Shi-
  26520. Nine Yang, M.S. Cheng
  26521.  
  26522. Session B-10: Partitioning and Mapping II (Martaban)
  26523. Chair: Sajal Das (University of North Texas)
  26524. L: Task Assignment on Distributed-Memory Systems with 
  26525. Adaptive Wormhole Routing - by V. Dixit-Radiya, D. Panda
  26526. L: A Fast and Efficient Strategy for Submesh Allocation in Mesh-
  26527. Connected Parallel Computers - by Debendra Das Sharma, Dhiraj 
  26528. K. Pradhan
  26529. L: Scalable and Non-Intrusive Load Sharing in Distributed 
  26530. Heterogeneous Clusters - by Aaron J. Goldberg, Banu Ozden
  26531.  
  26532. Session C-10: Network Communication (Rangoon)
  26533. Chair: C.S. Raghavendra (WSU)
  26534. L: Optimal Communication Algorithms on the Star Graph 
  26535. Interconnection Network - by S. Akl, P. Fragopoulou
  26536. L: Embedding Between 2-D Meshes of the Same Size - by W. 
  26537. Liang, Q. Hu, X. Shen
  26538. S: Optimal Information Dissemination in Star and Pancake 
  26539. Networks - by A. Ferreira, P. Berthome, S. Perennes
  26540.  
  26541. 3:00 - 3:30 pm: BREAK
  26542.  
  26543.         3:30 - 5:00 pm
  26544. Session A-11: Applications and Experimental Results III (Mandalay 
  26545. West)
  26546. Chair: Bertil Folliot (Universite Paris)
  26547. L: Extended Distributed Genetic Algorithm for Channel Routing - 
  26548. by B. B. Prahalada Rao, R. C. Hansdah
  26549. S: A Data-Parallel Approach to the Implementation of Weighted 
  26550. Medians Technique on Parallel/Super-computers - by K. P. Lam, 
  26551. Ed. Horne
  26552. S: Matching Dissimilar Images:  Model and Algorithm - by Zhang 
  26553. Tianxu, Lu Weixue
  26554. S: Parallel Implementations of Exclusion Joins - by Chung-Dak 
  26555. Shum
  26556. S: Point Visibility of a Simple Polygon on Reconfigurable Mesh - 
  26557. by Hong-Geun Kim and Yoo-Kun Cho
  26558.  
  26559. Session B-11: Reliability and Fault-Tolerance II (Martaban)
  26560. Chair: Ben Lee (Oregon State University)
  26561. L: Adaptive Independent Checkpointing for Reducing Rollback 
  26562. Propagation - by Jian Xu, Robert H. B. Netzer
  26563. L: Fast Polylog-Time Reconfiguration of Structurally Fault-
  26564. Tolerant Multiprocessors - by Shantanu Dutt
  26565. L: Real-Time Distributed Program Reliability Analysis - by Deng-
  26566. Jyi Chen, Ming-Cheng Sheng, Maw Sheng
  26567.  
  26568. Session C-11: Interconnection Networks/Routing IV (Rangoon)
  26569. Chair: Sudha Yalamanchili (Georgia Tech.)
  26570. L: Scalable Architectures with k-ary n-cube cluster-c  organization - 
  26571. by Debashis Basak, Dhabaleswar Panda
  26572. L: On Partially Dilated Multistage Interconnection Networks with 
  26573. Uniform Traffic and Nonuniform Traffic Spots - by M. Jurczyk, T. 
  26574. Schwederski
  26575. S: Binary deBruijn Networks for Scalability and I/O Processing - by 
  26576. Barun K. Kar, Dhiraj K. Pradhan
  26577. S: A Class of Hypercube-Like Networks - by Anirudha S. Vaidya, 
  26578. P. S. Nagendra Rao, S. Ravi Shankar
  26579.  
  26580. Saturday, December 4, 1993
  26581.  
  26582. Tutorial T1: Roles of Optics in Parallel Computing and High-Speed 
  26583. Communications
  26584. by Ahmed Louri - University of Arizona
  26585. 8:30 am - 5:00 pm (Martaban)
  26586. This tutorial will start by examining the state-of-the-art in parallel 
  26587. computing, including parallel processing paradigms, hardware, and 
  26588. software.  We will then discuss the basic concepts of optics in 
  26589. computing and communications and the motivations for considering 
  26590. optics and ways in which optics might provide significant 
  26591. enhancements to the computing and communications technologies.  
  26592. The tutorial will include some case studies of optical computing and 
  26593. switching systems.  Current research and future applications of 
  26594. optical computing are discussed.
  26595.  
  26596. Tutorial T2: Functional Programming
  26597. by Patrick Miller and John Feo - Lawrence Livermore National 
  26598. Laboratory
  26599. 8:30 am - 5:00 pm (Rangoon)
  26600. The objective of this tutorial is to familiarize the participants with 
  26601. the current state of functional languages.  We will cover both 
  26602. theoretical and practical issues.  We will explain the mathematical 
  26603. principals that form the foundation of functional languages, and 
  26604. from which they derive their advantages.  We will survey a 
  26605. representative set of existing functional languages and different 
  26606. implementation strategies.  We will use the functional language 
  26607. Sisal to expose the participants to the art of functional 
  26608. programming.
  26609.  
  26610. Tutorial T3: Instruction Scheduling
  26611. by Barbara Simons and Vivek Sarkar - IBM Corp.
  26612. 8:30 - 12:00 noon (Nepal)
  26613. In this tutorial we describe different models of deterministic 
  26614. scheduling, including pipeline scheduling, scheduling with inter-
  26615. instructional latencies, scheduling VLIW machines, and assigned 
  26616. processor scheduling.  In addition, we present an overview of 
  26617. important extensions to the basic block scheduling problem.  The 
  26618. program dependence graph, annotated with weights, provides a 
  26619. good representation for global instruction scheduling beyond a 
  26620. basic block.  Finally, we describe the close interaction between the 
  26621. problems of instruction scheduling and register allocation.
  26622.  
  26623. Tutorial T4: Software Systems and Tools for Distributed 
  26624. Programming 
  26625. by Anand Tripathi - University of Minnesota
  26626. 1:30-5:00 pm (Nepal)
  26627. This tutorial will present an overview of the most commonly used 
  26628. paradigms and models for distributed computing.  This discussion 
  26629. will address interprocess communication models and heterogeneous 
  26630. computing issues.  An overview of the object model of computing 
  26631. will be presented in the context of micro-kernel architectures for 
  26632. distributed computing.  The programming languages and tools to be 
  26633. discussed here include Parallel Virtual Machine (PVM), P4, Linda, 
  26634. Express, Mentat, Condor, CODE/ROPE, and Orca.  
  26635.  
  26636.  
  26637. Approved: parallel@hubcap.clemson.edu
  26638. Follow-up: comp.parallel
  26639. Path: bounce-back
  26640. Newsgroups: comp.parallel
  26641. From: usr@rice.edu (Usha Rajagopalan)
  26642. Subject: Wanted: Some information on Interconnection Networks
  26643. Reply-To: usr@rice.edu (Usha Rajagopalan)
  26644. Organization: Rice University
  26645.  
  26646. I am running some simulations and I need to use some "real" numbers 
  26647. for the interconnection network parameters.
  26648.  
  26649. I need information such as
  26650. 1.    ROuting (vitual cutthough, wormhole etc.)
  26651. 2.    Switch clock speed
  26652. 3.    Switching Delay
  26653. 4.    Switch Buffer Size
  26654. 5.    Width of links
  26655. 6.    Port Buffer size
  26656.  
  26657. for interconnection networks in machines such as 
  26658. Intel Hypercube, Intel Paragon, CM-5, J-Machine, BBN Butterfly. Information 
  26659. on any other commertial machine not mentioned above is also appriciated. But in 
  26660. that case please also mention the network type. 
  26661.  
  26662. Thanks for any help.I will summarize if there is interest. 
  26663.  
  26664. Approved: parallel@hubcap.clemson.edu
  26665. Follow-up: comp.parallel
  26666. Path: bounce-back
  26667. Newsgroups: comp.parallel
  26668. From: waander@cs.umd.edu (Bill Andersen)
  26669. Subject: Re: AI and Parallel Machines
  26670. Organization: U of Maryland, Dept. of Computer Science, Coll. Pk., MD 20742
  26671. References: <1993Nov5.153315.2624@unocal.com>
  26672.  
  26673. >>I am looking for references regrading the impact parallel processing has  
  26674. >>had on projects involving AI.  
  26675.  
  26676.   Check out the 1993 AAAI Spring Symposium proceedings on Massive
  26677. Parallelism and AI.  Our research group (led by Jim Hendler) here at
  26678. UMD is heavily involved in using MPP for AI.  Most of our work has
  26679. been done on TMC hardware.  There are many other research groups
  26680. working on MPP and AI.  Notables (other than those doing neural
  26681. networks and GAs) are:
  26682.  
  26683.   Matt Evett         FAU (Florida Atlantic Univ.)
  26684.   James Geller         NJIT (NJ Institute of Technology)
  26685.   Marc Goodman        Brandeis
  26686.   Hiroaki Kitano    NEC Corp. and CMU
  26687.   Dan Moldovan        USC
  26688.   Lokendra Shastri    UPenn (he may not be there now)
  26689.   David Waltz        NEC in Princeton
  26690.   
  26691.   I'm sure there are others but these are the folks who spring
  26692. immediately to mind.  My apologies for any omissions.  You might want
  26693. to check out two upcoming books.  One is by Hendler and Kitano from
  26694. AAAI/MIT Press ("Massively Parallel Artificial Intelligence") and the
  26695. other by Laveen Kanal from Elsevier.  Both should be out shortly.
  26696. Hope this gives you a start.  Please feel free to email me if you have
  26697. more questions.
  26698.  
  26699.   ...bill
  26700.  
  26701. -- 
  26702.    / Bill Andersen (waander@cs.umd.edu) /
  26703.   / University of Maryland             /
  26704.  / Department of Computer Science     /
  26705. / College Park, Maryland  20742      /
  26706.  
  26707. Approved: parallel@hubcap.clemson.edu
  26708. Follow-up: comp.parallel
  26709. Path: bounce-back
  26710. Newsgroups: comp.parallel
  26711. From: zxu@ringer.cs.utsa.edu (Zhichen Xu)
  26712. Subject: Acknowledgement
  26713. Organization: Univ of Texas at San Antonio
  26714.  
  26715. I'd like to thank the following friends who
  26716. have provided me with infomation of existing
  26717. parallel computers, my regards to them are beyond
  26718. words.
  26719.  
  26720.  
  26721. Andy.
  26722. Matthew D. Bennett
  26723. B.J.
  26724. Manuel Eduardo C. D. Correia 
  26725. hecht@oregon.cray.com
  26726. Peter J.E. Stan
  26727. Stephanie Stotland
  26728.  
  26729. Approved: parallel@hubcap.clemson.edu
  26730. Follow-up: comp.parallel
  26731. Path: bounce-back
  26732. Newsgroups: comp.parallel
  26733. From: Murray Cole <mic@dcs.ed.ac.uk>
  26734. Subject: The Future of Parallel Computing
  26735. Organization: Department of Computer Science, University of Edinburgh
  26736.  
  26737. There have been a number of posts in this thread which 
  26738. proceed along the lines that "parallel software needs to catch up with 
  26739. parallel hardware".  I would like to suggest (for discussion at least!)
  26740. that the reverse might be the case. We now have books full of snappy
  26741. parallel algorithms, whether for abstract models such as PRAM or for 
  26742. specific networks. Similarly, it's not hard to devise notations in which 
  26743. these algorithms can be expressed and manipulated clearly and concisely.
  26744.  
  26745. Unfortunately, most of them don't seem to run too well on real parallel
  26746. machines, even when there is no mismatch in the architectural structure.
  26747. Why should the blame lie with concise, efficient software which has illuminated
  26748. the essential parallel structure of a problem? Doesn't the fault lie with
  26749. hardware which can't satifactorily implement the simplest, clearest
  26750. parallel algorithms with reasonable efficiency. For example, why shouldn't 
  26751. I expect my simple summation algorithm for n values on n hypercube processors
  26752. to run a lot faster than a sequential summation on one of those processors?
  26753.  
  26754. Perhaps I'm just using the wrong machines ...
  26755.  
  26756. Murray.
  26757.  
  26758. Approved: parallel@hubcap.clemson.edu
  26759. Follow-up: comp.parallel
  26760. Path: bounce-back
  26761. Newsgroups: comp.parallel
  26762. From: laakkone@klaava.Helsinki.FI (Tero Laakkonen)
  26763. Subject: Q: petri nets?
  26764. Organization: University of Helsinki
  26765.  
  26766. hi, can anyone tell me about ftp'able docs about petri nets? i'm
  26767. interested in finding out how they *work* (yes i know there's books but i
  26768. don't have time to look for books).
  26769.  
  26770. ADV - thanks - ANCE
  26771. -- 
  26772. "i abhor you pretentious insight. i respect conscious guessing
  26773. because it consists of two good qualities: courage and modesty."
  26774. -imre lakatos
  26775.  
  26776. Approved: parallel@hubcap.clemson.edu
  26777. Follow-up: comp.parallel
  26778. Path: bounce-back
  26779. Newsgroups: comp.parallel
  26780. From: jonathan@cs.ualberta.ca (Jonathan Schaeffer)
  26781. Subject: experiments in assessing the "usability" of pp models/tools
  26782. Organization: University of Alberta, Edmonton, Canada
  26783.  
  26784. There are many different models for writing parallel programs,
  26785. including new languages, modifications to existing languages, 
  26786. library calls, etc.  These models may be realized in a variety
  26787. of parallel programming tools.
  26788.  
  26789. Do the readers of theis newsgroup know whether anyone has done
  26790. any experiments with these tools to assess their usability?
  26791. How easy are they to learn?  How quickly can users get solutions?
  26792. How good are the solutions?  What are the usability differences
  26793. for novices versus experts?
  26794.  
  26795. We are interested in experiments with human subjects.  For example,
  26796. a controlled experiment might have one group of programmers learn
  26797. Linda and one group learn PVM.  One could then measure how the
  26798. subjects perform when given a variety of problems to solve.
  26799.  
  26800. In the the sequential world a number of studies like this have 
  26801. been performed.  We know of few references for the parallel world.
  26802.  
  26803. Do you know of any references?
  26804.  
  26805.                 Thank you
  26806.                 Jonathan Schaeffer 
  26807.  
  26808. Approved: parallel@hubcap.clemson.edu
  26809. Follow-up: comp.parallel
  26810. Path: bounce-back
  26811. Newsgroups: comp.parallel
  26812. From: edsr!jlb@uunet.UU.NET (Jeff Buchmiller)
  26813. Subject: Re: The Future of Parallel Computing
  26814. Reply-To: edsr!jlb@uunet.UU.NET
  26815. Organization: Electronic Data Systems
  26816.  
  26817. In <1993Nov4.163540.2008@hubcap.clemson.edu> elm@cs.berkeley.edu (ethan miller) writes:
  26818.  
  26819. >  The goal of compiling for parallel code should NOT
  26820. >necessarily be "the best possible code;" it should be "reasonably
  26821. >close to the best possible code."
  26822.  
  26823. OK, cool.  Sometimes optimization is worth it, sometimes not.
  26824.  
  26825. But PLEASE don't forget about portability.  If the same code can be compiled
  26826. onto multiple architectures, it will make the programmer's job MUCH MUCH
  26827. easier.  (Tune to new architecture, instead of rewrite from scratch.)
  26828.  
  26829. If someone never has to change architectures, s/he is lucky and/or too
  26830. narrow-minded in his/her works.
  26831.  
  26832. --jeff
  26833. -- 
  26834. Jeff Buchmiller   Electronic Data Systems R&D   Dallas, TX   jlb@edsr.eds.com
  26835. -----------------------------------------------------------------------------
  26836. Disclaimer: This E-mail/article is not an official business record of EDS.
  26837.             Any opinions expressed do not necessarily represent those of EDS.
  26838.  
  26839. Approved: parallel@hubcap.clemson.edu
  26840. Follow-up: comp.parallel
  26841. Path: bounce-back
  26842. Newsgroups: comp.parallel
  26843. From: Douglas Hanley <dgh@dcs.ed.ac.uk>
  26844. Subject: Distributed memory MIMD algorithms
  26845. Organization: Department of Computer Science, University of Edinburgh
  26846.  
  26847.  
  26848. Would somebody be kind enough to point me in the direction of
  26849. information regarding the design and analysis of distributed memory
  26850. MIMD algorithms, especially sorting and parallel prefix.  It would be
  26851. helpful if the analysis parameterised communication latency so that
  26852. algorithmic performance could be estimated across MIMD architectures
  26853. with varying interconnection networks.  Thanks
  26854.  
  26855.  
  26856. +-----------------------------------------------------------------------------+
  26857. |    Douglas G Hanley, Dept of Computer Science, University of Edinburgh      |
  26858. |                          dgh@dcs.ed.ac.uk                                   |
  26859. +-----------------------------------------------------------------------------+
  26860.  
  26861. Approved: parallel@hubcap.clemson.edu
  26862. Follow-up: comp.parallel
  26863. Path: bounce-back
  26864. Newsgroups: comp.parallel
  26865. From: zaky@cs.nps.navy.mil (Amr Zaky)
  26866. Subject: References Required About Task Graph Partitioning
  26867.  
  26868. I will be very grateful to any pointers regarding previous or current
  26869. work relevant to the following problem.
  26870.  
  26871. Given
  26872.  
  26873. 1) Undirected task graph, where every node represents a task and its
  26874. weight denotes the task's processing time, and edge weights denote the
  26875. amount of communication between nodes,
  26876.  
  26877. and
  26878.  
  26879. 2) A distributed memory multiprocessor represented as a graph whose
  26880. nodes are homogeneous processors and whose edges are links between the
  26881. processors,
  26882.  
  26883. Find a partitioning of the task graph onto the multiprocessor so as to
  26884. minimize some useful parameter (I am looking for that!!), without
  26885. ignoring link delays and link contention.
  26886.  
  26887. I am thinking of the following parameter for efficiency:
  26888.  
  26889. Let Xi be the amount of time some resource (processor or link) is
  26890. utilized.  Find the partition that will minimize
  26891.  
  26892.     Y-Z, where Y=max(Xi), Z=min(Xi) i=1...number of resources.
  26893.  
  26894. Any Pointers?
  26895. mail to 
  26896. zaky@cs.nps.navy.mil
  26897.  
  26898.  
  26899.  
  26900.  
  26901. Approved: parallel@hubcap.clemson.edu
  26902. Follow-up: comp.parallel
  26903. Path: bounce-back
  26904. Newsgroups: comp.parallel
  26905. From: Siegfried Grabner <sg@gup.uni-linz.ac.at>
  26906. Subject: Want Dissertation by S. Hammond
  26907. dear netters,
  26908.  
  26909. i am looking for the following Ph.D. thesis by S. Hammond:
  26910.  
  26911. S. Hammond, Mapping unstructured grid computations to massively 
  26912. parallel computers, Ph.D. thesis, Rensselear Polytechnic Institute, 
  26913. Dept. of Computer Science, Renesselear, Ny, 1992.
  26914.  
  26915. this thesis is referenced in a tech. rep. of sandia labs. (tech. rep.
  26916. SAND92-1460): "An Improved Spectral Graph Partitioning Algorithm for
  26917. Mapping Parallel Computations".
  26918.  
  26919. If anybody out there knows where to get this thesis from or if anybody
  26920. knows the author or his email address, respectively, please let me know.
  26921.  
  26922. It is impossible for me to get this thesis because when i asked our
  26923. librarian she told me that in austria it is nearly impossible to get an
  26924. answer from an american university (a bit strange, what a shame :(  ).
  26925.  
  26926. thanks for helping me
  26927.  
  26928. siegi
  26929.  
  26930. *    Siegfried Grabner                                        *
  26931. *    Dept. for Graphics and Parallel Processing (GUP-Linz)    *
  26932. *    Johannes Kepler University Linz                          *
  26933. *    Altenbergerstr. 69, A-4040 Linz, AUSTRIA, EUROPE         * 
  26934.  
  26935. Approved: parallel@hubcap.clemson.edu
  26936. Newsgroups: comp.parallel
  26937. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  26938. Subject: To the two volunteers who recently said they would join moderators
  26939.  
  26940. Some how I've lost one of your mail address. Would the two of you who
  26941. said, probably yesterday, you'd like to join the group, please send me
  26942. a message. I have the following six addresses
  26943.  
  26944.         berryman-harry@CS.YALE.EDU, bigrigg@cs.pitt.edu, killian@epcc.ed.ac.uk,
  26945.         kumbra@point.cs.uwm.edu, richard.muise@acadiau.ca,
  26946.         seo@pacific.cse.psu.edu
  26947.  
  26948. Steve
  26949. Approved: parallel@hubcap.clemson.edu
  26950. Newsgroups: comp.parallel
  26951. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  26952. Subject: Moderator Replacement---Looks like we'll have plenty
  26953.  
  26954. Thanks to all who have volunteered to moderate. We have seven folks who
  26955. are willing to participate.
  26956.  
  26957. Steve
  26958.  
  26959. Approved: parallel@hubcap.clemson.edu
  26960. Follow-up: comp.parallel
  26961. Path: bounce-back
  26962. Newsgroups: comp.parallel,comp.parallel.pvm,comp.theory,comp.org.ieee,info.theorynt
  26963. From: das@ponder.csci.unt.edu (Sajal Das)
  26964. Subject: Call for Papers
  26965. Reply-To: comp-org-ieee@zeus.ieee.org
  26966. Organization: University of North Texas, Denton
  26967.  
  26968.                          *******************
  26969.                          * CALL FOR PAPERS *
  26970.                          *******************
  26971.  
  26972.               JOURNAL OF COMPUTER & SOFTWARE ENGINEERING
  26973.              --------------------------------------------
  26974.            SPECIAL ISSUE on PARALLEL ALGORITHMS & ARCHITECTURES 
  26975.               (Tentative Publication Date: January 1995)
  26976.  
  26977.  
  26978. Due to fundamental physical limitations on processing speeds of
  26979. sequential computers, the future-generation high performance 
  26980. computing environment will eventually rely entirely on exploiting 
  26981. the inherent parallelism in problems and implementing their 
  26982. solutions on realistic parallel machines.  Just as the processing
  26983. speeds of chips are approaching their physical limits, the need 
  26984. for faster computations is increasing at an even faster rate. 
  26985. For example, ten years ago there was virtually no general-purpose 
  26986. parallel computer available commercially. Now there are several 
  26987. machines, some of which have received wide acceptance due to 
  26988. reasonable cost and attractive performance. The purpose of this 
  26989. special issue is to focus on the desgin and analysis of efficient 
  26990. parallel algorithms and their performance on different parallel 
  26991. architectures. We expect to have a good blend of theory and practice.
  26992. In addition to theoretical papers on parallel algorithms, case studies 
  26993. and experience reports on applications of these algorithms in real-life 
  26994. problems are especially welcome. Example topics include, but are not 
  26995. limited to, the following:
  26996.  
  26997.  
  26998. Parallel Algorithms and Applications. 
  26999. Machine Models and Architectures. 
  27000. Communication, Synchronization and Scheduling.  
  27001. Mapping Algorithms on Architectures.
  27002. Performance Evaluation of Multiprocessor Systems.  
  27003. Parallel Data Structures. 
  27004. Parallel Programming and Software Tools. 
  27005.  
  27006. ***********************************************************************
  27007. Please submit SEVEN copies of your manuscript to either of the        *
  27008. Guest Editors by May  1, 1994:                                        *
  27009.                                                                       *
  27010. ***********************************************************************
  27011. Professor Sajal K. Das           ||  Professor Pradip K. Srimani      *
  27012. Department of Computer Science   ||  Department of Computer Science   *
  27013. University of North Texas        ||  Colorado State University        *
  27014. Denton, TX 76203                 ||  Ft. Collins, CO 80523            *
  27015. Tel: (817) 565-4256, -2799 (fax) ||  Tel: (303) 491-7097, -6639 (fax) *
  27016. Email: das@cs.unt.edu            ||  Email: srimani@CS.ColoState.Edu  *
  27017. ***********************************************************************
  27018.  
  27019.  
  27020. INSTRUCTIONS FOR SUBMITTING PAPERS: 
  27021.  
  27022. Papers should be 20--30 double spaced pages including figures, tables 
  27023. and references. Papers should not have been previously published, nor 
  27024. currently submitted elsewhere for publication. Papers should include a 
  27025. title page containing title, authors' names and affiliations, postal and 
  27026. e-mail addresses, telephone numbers and Fax numbers. Papers should
  27027. include a 300-word abstract.
  27028.  
  27029. If you are willing to referee papers for this special issue, please send
  27030. a note with research interest to either of the guest editors. 
  27031.  
  27032.  
  27033.  
  27034.  
  27035.  
  27036. Approved: parallel@hubcap.clemson.edu
  27037. Follow-up: comp.parallel
  27038. Path: bounce-back
  27039. Newsgroups: comp.parallel,comp.parallel.pvm,comp.theory,comp.org.ieee,info.theorynt
  27040. From: das@ponder.csci.unt.edu (Sajal Das)
  27041. Subject: Call for Papers
  27042. Originator: comp-org-ieee@zeus.ieee.org
  27043. Sender: comp-org-ieee@zeus.ieee.org
  27044. Reply-To: comp-org-ieee@zeus.ieee.org
  27045. Organization: University of North Texas, Denton
  27046. Date: Thu, 11 Nov 1993 15:47:40 GMT
  27047. Apparently-To: comp-parallel@rutgers.edu
  27048.  
  27049.                          *******************
  27050.                          * CALL FOR PAPERS *
  27051.                          *******************
  27052.  
  27053.               JOURNAL OF COMPUTER & SOFTWARE ENGINEERING
  27054.              --------------------------------------------
  27055.            SPECIAL ISSUE on PARALLEL ALGORITHMS & ARCHITECTURES 
  27056.               (Tentative Publication Date: January 1995)
  27057.  
  27058.  
  27059. Due to fundamental physical limitations on processing speeds of
  27060. sequential computers, the future-generation high performance 
  27061. computing environment will eventually rely entirely on exploiting 
  27062. the inherent parallelism in problems and implementing their 
  27063. solutions on realistic parallel machines.  Just as the processing
  27064. speeds of chips are approaching their physical limits, the need 
  27065. for faster computations is increasing at an even faster rate. 
  27066. For example, ten years ago there was virtually no general-purpose 
  27067. parallel computer available commercially. Now there are several 
  27068. machines, some of which have received wide acceptance due to 
  27069. reasonable cost and attractive performance. The purpose of this 
  27070. special issue is to focus on the desgin and analysis of efficient 
  27071. parallel algorithms and their performance on different parallel 
  27072. architectures. We expect to have a good blend of theory and practice.
  27073. In addition to theoretical papers on parallel algorithms, case studies 
  27074. and experience reports on applications of these algorithms in real-life 
  27075. problems are especially welcome. Example topics include, but are not 
  27076. limited to, the following:
  27077.  
  27078.  
  27079. Parallel Algorithms and Applications. 
  27080. Machine Models and Architectures. 
  27081. Communication, Synchronization and Scheduling.  
  27082. Mapping Algorithms on Architectures.
  27083. Performance Evaluation of Multiprocessor Systems.  
  27084. Parallel Data Structures. 
  27085. Parallel Programming and Software Tools. 
  27086.  
  27087. ***********************************************************************
  27088. Please submit SEVEN copies of your manuscript to either of the        *
  27089. Guest Editors by May  1, 1994:                                        *
  27090.                                                                       *
  27091. ***********************************************************************
  27092. Professor Sajal K. Das           ||  Professor Pradip K. Srimani      *
  27093. Department of Computer Science   ||  Department of Computer Science   *
  27094. University of North Texas        ||  Colorado State University        *
  27095. Denton, TX 76203                 ||  Ft. Collins, CO 80523            *
  27096. Tel: (817) 565-4256, -2799 (fax) ||  Tel: (303) 491-7097, -6639 (fax) *
  27097. Email: das@cs.unt.edu            ||  Email: srimani@CS.ColoState.Edu  *
  27098. ***********************************************************************
  27099.  
  27100.  
  27101. INSTRUCTIONS FOR SUBMITTING PAPERS: 
  27102.  
  27103. Papers should be 20--30 double spaced pages including figures, tables 
  27104. and references. Papers should not have been previously published, nor 
  27105. currently submitted elsewhere for publication. Papers should include a 
  27106. title page containing title, authors' names and affiliations, postal and 
  27107. e-mail addresses, telephone numbers and Fax numbers. Papers should
  27108. include a 300-word abstract.
  27109.  
  27110. If you are willing to referee papers for this special issue, please send
  27111. a note with research interest to either of the guest editors. 
  27112.  
  27113.  
  27114.  
  27115.  
  27116.  
  27117.  
  27118. Approved: parallel@hubcap.clemson.edu
  27119. Follow-up: comp.parallel
  27120. Path: bounce-back
  27121. Newsgroups: comp.parallel
  27122. From: cychong@magnus.acs.ohio-state.edu (Robert Chong)
  27123. Subject: Need introductory parallel programming book
  27124. Date: 11 Nov 1993 16:45:35 GMT
  27125. Organization: The Ohio State University
  27126. Nntp-Posting-Host: top.magnus.acs.ohio-state.edu
  27127.  
  27128. Hi, everyone,
  27129.  
  27130.     Can anyone suggest an introductory and language independent 
  27131. book which can teach me to write parallel programs/algorithms?
  27132.  
  27133.     Thanks.
  27134.  
  27135.  
  27136. -- 
  27137. Robert Chong
  27138. Department of Mechanical Engineering
  27139. The Ohio State University
  27140. Email: cychong@magnus.acs.ohio-state.edu
  27141.  
  27142. Approved: parallel@hubcap.clemson.edu
  27143. Follow-up: comp.parallel
  27144. Path: bounce-back
  27145. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  27146. From: thompson@inmos.co.uk ()
  27147. Subject: INMOS Information available on T9000
  27148. Sender: news@inmos.co.uk
  27149. Reply-To: thompson@aust.inmos.co.uk ()
  27150. Organization: INMOS Architecture Group
  27151. Date: Thu, 11 Nov 1993 16:52:17 GMT
  27152. Apparently-To: hypercube@hubcap.clemson.edu
  27153.  
  27154. Some information regarding the IMS T9000 transputer is now available on the
  27155. INMOS FTP server, ftp.inmos.co.uk [192.26.234.3], in the directory
  27156. /inmos/info/T9000.  This relates mainly to the superscalar processor and
  27157. the cache memory system at present.
  27158.  
  27159. Further information regarding the INMOS communications architecture is
  27160. available in the directory /inmos/info/comms, including a compressed
  27161. PostScript copy of the book "Networks, Routers and Transputers", and some
  27162. papers, in the subdirectories book/ and papers/ respectively.
  27163.  
  27164. --
  27165. Peter Thompson          INTERNET: thompson@inmos.co.uk      INMOS is a member
  27166. INMOS Ltd               JANET:    thompson@uk.co.inmos      of the SGS-Thomson
  27167. 1000 Aztec West         UUCP:     uknet!inmos!thompson      Microelectronics
  27168. Bristol BS12 4SQ, U.K.  Phone/FAX: +44 454 611564/617910    Group
  27169. --
  27170. Peter Thompson          INTERNET: thompson@inmos.co.uk      INMOS is a member
  27171. INMOS Ltd               JANET:    thompson@uk.co.inmos      of the SGS-Thomson
  27172. 1000 Aztec West         UUCP:     uknet!inmos!thompson      Microelectronics
  27173. Bristol BS12 4SQ, U.K.  Phone/FAX: +44 454 611564/617910    Group
  27174.  
  27175. Approved: parallel@hubcap.clemson.edu
  27176. Follow-up: comp.parallel
  27177. Path: bounce-back
  27178. Newsgroups: comp.parallel
  27179. From: forge@netcom.com (FORGE Customer Support)
  27180. Subject: News from Applied Parallel Research
  27181. Summary: Latest Developments in Parallization Tools from APR
  27182. Organization: Applied Parallel Research, Inc. 
  27183. Date: Thu, 11 Nov 1993 19:31:34 GMT
  27184. Apparently-To: comp-parallel@uunet.uu.net
  27185.  
  27186.  
  27187. +=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=
  27188. The Latest News from Applied Parallel Research...
  27189. +=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=
  27190.  
  27191. November  1993
  27192.  
  27193. As we enter our third year, we are more excited than ever about the latest
  27194. additions to our FORGE family of products, and the growing number of vendors
  27195. and programmers who are using them.
  27196.  
  27197. =-=-=-=
  27198. MAGIC
  27199. =-=-=-=
  27200. At the top of our list of new things we want to tell you about are our new
  27201. MAGIC batch parallelizers that we are announcing at Supercomputing 93 in
  27202. Portland. FORGE Magic/DM Parallelizer (dpf) for distributed memory is able to
  27203. automatically (automagically?) partition data arrays and distribute loops based
  27204. upon a static analysis of the source program.  Or, you can supply a serial
  27205. timing profile to direct the automatic parallelization right to the hot spots
  27206. in your code. With FORGE Magic/SM (spf) for shared memory systems, data arrays
  27207. are automatically padded and aligned for optimal cache management, and DO loops
  27208. are parallelized by target system compiler-specific directives.
  27209.  
  27210. It would be outrageous of us to claim that our MAGIC technology can
  27211. automatically produce the best parallelization strategy for all applications,
  27212. and we won't. But the one important claim we do make is that it is an incredible
  27213. way to get a first rough sketch at a parallelization. This may be especially
  27214. useful with large, unwieldly codes when, most likely, you would not have a clue
  27215. as to where to begin. A parallelization report shows you in great detail which
  27216. loops parallelized and which data arrays were partitioned, and how this was
  27217. done. More importantly, it shows which loops/arrays could not be parallelized
  27218. and the inhibitors in the program that prevented this. An output option
  27219. annotates the original Fortran 77 program with parallelization directives that
  27220. you can amend to refine the parallelization.
  27221.  
  27222. Our intention with these MAGIC parallelizing pre-compilers is to provide
  27223. facilities similar to what we used to vectorize code not too long ago.
  27224. Each can be used to generate instrumented programs for serial runtime
  27225. execution timing.  FORGE Magic/DM (dpf) can also instrument the generated
  27226. parallelized code to produce parallel runtime performance profiles that
  27227. identify communication bottlenecks and losses due to poor load balancing.
  27228.  
  27229. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  27230. High Performance Fortran, HPF
  27231. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  27232. Our new FORGE HPF batch pre-compiler, xhpf, is now available with an optional
  27233. MAGIC automatic parallelization mode as well.  xhpf with MAGIC  is able to take
  27234. a serial Fortran 77 program and automatically generate a parallelized code with
  27235. Fortran 90 array syntax and HPF directives. Our HPF pre-compiler has a number
  27236. of capabilities that may prove invaluable. For example, the HPF consistency
  27237. checker assures that the parallelization directives you supply are legal HPF
  27238. and are consistent with themselves and the program. Also the parallelization is
  27239. viewable from our interactive FORGE/DMP Parallelizer through is compatible
  27240. database. And, if your target system does not yet have an HPF compiler, xhpf,
  27241. like dpf, will generate a SPMD Fortran 77 code with explicit message passing
  27242. calls interfacing to PVM, Express, Linda, etc.
  27243.  
  27244. You may know that other companies are struggling right now to provide HPF
  27245. compilers on a number of systems. However, we can report the following
  27246. regarding APRs HPF tools:
  27247.  
  27248. *   They are available today.
  27249.  
  27250. *   We generate efficient Fortran 77 code from the HPF that is immediately
  27251.     compilable and optimizable by most native f77 compilers.
  27252.  
  27253. *   We parallelize Fortran DO loops as well as Fortran 90 array syntax.
  27254.     (HPF compilers only parallelize array syntax.)
  27255.  
  27256. *   MAGIC on xhpf will generate an initial HPF parallelization
  27257.     automatically for you to start with.
  27258.  
  27259. *   You can review and analyze the parallelization with our FORGE/DMP
  27260.     interactive tool.
  27261.  
  27262. *   You can instrument the parallel code and obtain a parallel runtime
  27263.     performance profile that includes measurement of all communication 
  27264.     costs and bottlenecks.
  27265.  
  27266. *   With our unique parallel runtime library, we can interface to all major
  27267.     multiprocessor systems and workstation clusters running PVM, Express, 
  27268.     Linda, IBM EUI, nCUBE, Intel NT, you name it!.
  27269.  
  27270. We welcome the opportunity to demonstrate our HPF capabilities to you if you
  27271. give us a call.
  27272.  
  27273. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  27274. FORGE Motif GUI Fortran Explorer
  27275. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  27276. Another major development is the release of our first interactive product to
  27277. utilize the Motif graphic user interface. FORGE Explorer, based upon the FORGE
  27278. Baseline Browser, is now available on IBM RS/6000, DEC Alpha, and HP
  27279. workstations supporting the Motif GUI.  It presents an easy to use and mostly
  27280. intuitive approach to interprocedural program data and control flow analysis,
  27281. tracing, and global context searching. We are moving to transform all FORGE
  27282. interactive products into the world of Motif by the end of next year. FORGE
  27283. Explorer is actually fun to use... you've got to see it!
  27284.  
  27285. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  27286. Advanced Shared Memory Parallelizers
  27287. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  27288. The last area of product development wed like to mention is the release of
  27289. advanced, new shared memory parallelizers that are able to optimize program
  27290. cache management by padding and alignment of global arrays automatically.  We
  27291. also have developed a Global Index Reordering (GIR) restructurer that can make
  27292. a positive gain on performance by automatically reordering the indices of
  27293. arrays in inner loops to eliminate inappropriate striding through memory. This
  27294. restructuring, which is so tedious and error prone when attempted by hand, can
  27295. render a successful parallelization out of a marginal performer.
  27296.  
  27297. =-=-=-=-=-=-=-=
  27298. Vendor Support
  27299. =-=-=-=-=-=-=-=
  27300. A growing number of supercomputing vendors are now actively supporting the
  27301. ongoing development of APRs products for their shared and distributed memory
  27302. multiprocessor systems: IBM (SP1, Power/4, and RS/6000 clusters), Fujitsu
  27303. (VPP500), Intel (Paragon), nCUBE, HP, DEC, Cray Computers (Cray 3).  We also
  27304. offer our products directly to end users of SGI, Cray Research, and Convex
  27305. systems.
  27306.  
  27307. =-=-=-=-=
  27308. Further!
  27309. =-=-=-=-=
  27310. We look forward to a new year of challenges to provide the ultimate tools for
  27311. parallel processing, and hope to be speaking with you soon.  If you will be 
  27312. attending SuperComputing 93 in Portland, stop by and say hello and catch a
  27313. demonstration of these products -- we will be in booth 401.
  27314.  
  27315.  
  27316.  
  27317.                    John Levesque, President, Applied Parallel Research, Inc.
  27318.                                                         ...for the APR Staff
  27319.  
  27320.  
  27321.                                              Applied Parallel Research, Inc.
  27322.                                                        550 Main St., Suite I
  27323.                                                        Placerville, CA 95667
  27324.                                                                 916/621-1600
  27325.  
  27326.                                                             forge@netcom.com
  27327.  
  27328. -- 
  27329.  ///  Applied  ///     FORGE 90 Customer Support Group
  27330.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  27331.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  27332.  
  27333. Approved: parallel@hubcap.clemson.edu
  27334. Follow-up: comp.parallel
  27335. Path: bounce-back
  27336. Newsgroups: comp.parallel
  27337. From: forge@netcom.com (FORGE Customer Support)
  27338. Subject: Automatic Parallelization News Release
  27339. Summary: APR Announces Automatic Parallelization Tools for Fortran
  27340. Keywords: Automatic Parallelization Fortran
  27341. Organization: Applied Parallel Research, Inc. 
  27342. Date: Thu, 11 Nov 1993 19:34:25 GMT
  27343. Apparently-To: comp-parallel@uunet.uu.net
  27344.  
  27345.  
  27346.                                                   ..November 11, 1993
  27347. NEWS RELEASE
  27348.  
  27349. Applied Parallel Research, Inc. 
  27350. 550 Main St., Suite I Placerville, CA 95667 
  27351. Robert Enk, Sales and Marketing (301) 718-3733, Fax: (301) 718-3734
  27352. -----------------------------------------------------------------------
  27353.  
  27354. FOR IMMEDIATE RELEASE
  27355.  
  27356. Applied Parallel Research announces the addition of two revolutionary
  27357. products to the FORGE family of parallelization tools for Fortran and
  27358. significant enhancements to its current set of products.
  27359.  
  27360. Placerville, California, USA, November 11, 1993  -- 
  27361. Applied Parallel Research Inc. (APR) announces its MAGIC series of
  27362. automatic parallelizing pre-compilers, FORGE Magic/DM for distributed
  27363. memory systems and clustered workstations, and FORGE Magic/SM for shared
  27364. memory parallel systems.  Together these products represent the
  27365. state-of-the-art in parallelization technology and take a giant step
  27366. forward in providing development tools critical to the successful
  27367. utilization of parallel processing systems.
  27368.  
  27369. Magic/DM represents the first production quality automatic parallelization
  27370. facility for distributed memory systems.  Sophisticated interprocedural
  27371. analysis allows Magic/DM to automatically identify the most significant
  27372. loops within a program and to develop a parallelization strategy based
  27373. upon those loops and the arrays they reference.  On Initial benchmarks,
  27374. Magic/DM has generated parallel code that achieves 80% of the performance
  27375. obtained from hand parallelization.
  27376.  
  27377. Optionally, Magic/DM can create an output file that is the original
  27378. Fortran code with APR parallelization directives strategically embedded in
  27379. the program.  A detailed parallelization report is also available which
  27380. describes for the programmer which arrays were partitioned and how the
  27381. loops were parallelized, and, most importantly, indicates where
  27382. parallelization could not be accomplished and what inhibitors are causing
  27383. the problem.  This output forms the basis of a first parallelization which
  27384. the programmer can further refine through the use of parallel statistics
  27385. gathering and APR Directives.
  27386.  
  27387. Dan Anderson of the National Center for Atmospheric Research said, "This is
  27388. just what our users need, a useable tool that not only parallelizes as
  27389. much as possible, but also generates useful diagnostics that can be used
  27390. to hand tune the application."
  27391.  
  27392. Magic/SM is also an automatic batch parallelization tool but directed
  27393. towards multi CPU shared memory systems.  Magic/SM automatically analyzes
  27394. candidate loops for parallelization and annotates the original program
  27395. with the target systems compiler specific directives.  It also produces a
  27396. detailed parallelization report which can be used for further refinement
  27397. of the parallelization.
  27398.  
  27399. APR's HPF Compilation System, xHPF, has been enhanced to include an Auto
  27400. Parallelization option.  A user is now able to input a Fortran 77 program
  27401. with optional sequential timing information to xHPF and generate a
  27402. parallelized source file with Fortran 90 array syntax and HPF directives.
  27403. This facility allows organizations that might standardize on HPF to
  27404. convert their existing Fortran 77 programs to HPF without expensive and
  27405. time consuming hand conversion.
  27406.  
  27407. John Levesque, President of Applied Parallel Research said, "With the
  27408. addition of these automatic parallelization products and enhancements, APR
  27409. is able to offer the most complete and sophisticated set of Fortran
  27410. parallelization tools in the industry.  The FORGE Magic products provide
  27411. the same ease of use for parallel computing systems that vectorizing
  27412. compilers and pre-compilers have provided to users of vector machines.
  27413. APR's combination of batch and interactive products can now address the
  27414. needs of first time parallel system users as well as seasoned parallel
  27415. programmers."
  27416.  
  27417. APR's source code browser, FORGE Baseline has been enhanced and redesignated
  27418. FORGE Explorer.  FORGE Explorer is APR's first product to utilize the Motif
  27419. graphic user interface and has been significantly restructured for ease of
  27420. use in providing control flow information, variable usage and context
  27421. sensitive query functions.
  27422.  
  27423. Information on APR's product can be obtained by contacting Robert Enk, VP
  27424. of Sales and Marketing at (301) 718-3733 or by E-mail at enk@netcom.com.
  27425. -- 
  27426.  ///  Applied  ///     FORGE 90 Customer Support Group
  27427.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  27428.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  27429.  
  27430. Approved: parallel@hubcap.clemson.edu
  27431. Follow-up: comp.parallel
  27432. Path: bounce-back
  27433. Newsgroups: comp.parallel
  27434. From: math1pf@elroy.uh.edu (Zheng, Ping)
  27435. Subject: Hypercube expert wanted. Short term but excellent pay !
  27436. Organization: University of Houston
  27437. References: <1993Nov10.132836.21343@hubcap.clemson.edu>
  27438. Nntp-Posting-Host: elroy.uh.edu
  27439. News-Software: VAX/VMS VNEWS 1.41    
  27440.  
  27441. We need someone who is very familier with hypercube architectures and
  27442. algorithms to be our short term consultant( yes, via email). We will 
  27443. pay $30 to $40 an hour depending on your qualification.
  27444.  
  27445. If interested please reply contact me through this account or call
  27446. (713)527-0468.
  27447.  
  27448. Thanks
  27449.  
  27450. Ping
  27451.  
  27452. Approved: parallel@hubcap.clemson.edu
  27453. Follow-up: comp.parallel
  27454. Path: bounce-back
  27455. Newsgroups: comp.parallel
  27456. From: dbader@eng.umd.edu (David Bader)
  27457. Subject: Re: The Future of Parallel Computing
  27458. Date: 11 Nov 1993 22:51:17 GMT
  27459. Organization: Professional Student, University of Maryland, College Park
  27460. References: <1993Nov11.142432.8924@hubcap.clemson.edu>
  27461. Nntp-Posting-Host: coke.eng.umd.edu
  27462. Originator: dbader@coke.eng.umd.edu
  27463.  
  27464.  
  27465. In article <1993Nov11.142432.8924@hubcap.clemson.edu>, Murray Cole <mic@dcs.ed.ac.uk> writes:
  27466. >parallel hardware".  I would like to suggest (for discussion at least!)
  27467. >that the reverse might be the case. We now have books full of snappy
  27468. >parallel algorithms, whether for abstract models such as PRAM or for 
  27469.  
  27470. However, the field of parallel algorithmics is still in its infancy. Five years 
  27471. ago, almost no books existed on the subject. A parallel algorithm must be 
  27472. designed with some concept of an abstract model of the parallel hardware, 
  27473. whether this model is implicit (such as a PRAM algorithm) or explicit (such as
  27474. a hypercube or mesh algorithm).  Granted, we have found some "obvious" parallel 
  27475. algorithms, and labelled them as parallel primitives, such as parallel scan 
  27476. operations, and block permutations, etc.  But I do not believe we have the 
  27477. "canonical" representation for a parallel algorithm yet.
  27478.  
  27479. >Unfortunately, most of them don't seem to run too well on real parallel
  27480. >machines, even when there is no mismatch in the architectural structure.
  27481.  
  27482. Which parallel algorithms do not perform "well" on real parallel machines? 
  27483. In all my research I have yet to find a parallel algorithm running on a parallel 
  27484. machine which does not have some speedup from the uniprocessor case. (Disclaimer
  27485. to follow:)
  27486.  
  27487. >parallel algorithms with reasonable efficiency. For example, why shouldn't 
  27488. >I expect my simple summation algorithm for n values on n hypercube processors
  27489. >to run a lot faster than a sequential summation on one of those processors?
  27490.  
  27491. A parallel algorithm exhibits a result faster (in a relative sense) on a parallel
  27492. machine than a single processor when its parallel execution time on "p" 
  27493. processors, including overheads, is less than the sequential execution time.
  27494. You need to look at the "granularity" of a problem to decide whether 
  27495. it will perform faster on a parallel machine. (For an introduction to
  27496. granularity, see Stone, "High Performance Computer Architecture", Section 6.2).
  27497.  
  27498. If your machine is meant for course-grained problems (such as the case you 
  27499. outline above), you will need to sum "n > N" numbers to see a speedup, where "N"
  27500. is some large threshold for the given algorithm and machine size.
  27501.  
  27502. -david
  27503.  
  27504. David A. Bader 
  27505. Electrical Engineering Department
  27506. A.V. Williams Building
  27507. University of Maryland
  27508. College Park, MD 20742
  27509.  
  27510. Internet: dbader@eng.umd.edu
  27511.  
  27512.  
  27513. Approved: parallel@hubcap.clemson.edu
  27514. Follow-up: comp.parallel
  27515. Path: bounce-back
  27516. Newsgroups: comp.parallel
  27517. From: djpatel@chaph.usc.edu (Dhiren Jeram Patel)
  27518. Subject: Need info on MasPar and CM-5 parallel machines.
  27519. Organization: University of Southern California, Los Angeles, CA
  27520. Sender: djpatel@chaph.usc.edu
  27521.  
  27522.  
  27523. Hi, I need some information on the MasPar and Thinking Machine CM-5 parallel
  27524. computers. Specifically, I need information on architecture issues such as
  27525. interconnect/routing and prefetching.
  27526.  
  27527. I'd appreciate help from anyone who can point me in the right direction.
  27528.  
  27529. (I've already looked in the University library, but I didn't find much.  Mabey
  27530. I wasn't looking in the right place.)
  27531.  
  27532.  
  27533.  
  27534. Approved: parallel@hubcap.clemson.edu
  27535. Follow-up: comp.parallel
  27536. Path: bounce-back
  27537. Newsgroups: comp.parallel
  27538. From: udo@mars.informatik.rwth-aachen.de (Udo Brocker)
  27539. Subject: group leader position
  27540. Organization: Rechnerbetrieb Informatik - RWTH Aachen
  27541. Nntp-Posting-Host: mars.lfbs.rwth-aachen.de
  27542. Mime-Version: 1.0
  27543. Content-Type: text/plain; charset=US-ASCII
  27544. Content-Transfer-Encoding: 7bit
  27545. Keywords: operating-systems parallel-systems
  27546.  
  27547.  
  27548.  
  27549.  
  27550.  
  27551.     !!!!!!!! Working group leader position available !!!!!!
  27552.  
  27553.  
  27554. At the Institute of Operating Systems at RWTH Aachen University of Technology,
  27555. Germany the following positions are available:
  27556.  
  27557. Manager of Operating System Research Group
  27558. ------------------------------------------
  27559. The leader of the working group on operating system research is responsible for 
  27560. all duties of the group on operating systems (currently 3 staff plus students)
  27561. within the institute. He will direct the R&D activities of the group,
  27562. represent the group within the institute, the university and outside
  27563. (industry, funding agencies). Apart from his research activities his
  27564. main duties are participation in the teaching of the institute, 
  27565. to acquire research funds and to manage the group. Focus of the groups
  27566. R&D activities (and therefore the managers) should be the enhancement
  27567. of micro-kernel based multicomputer operating systems for parallel
  27568. supercomputers, preferable Mach and OSF/1. Selected research topics
  27569. might be scalability and performance issues, implementation of parallel
  27570. programming models, shared virtual memory, resource scheduling, etc.
  27571.  
  27572. The position offers the opportunity for further scientific qualification
  27573. (Habilitation, Dissertation). In case of Habilitation a PhD in Computer
  27574. Science, Electrical Engineering or a different engineering subject is
  27575. a must. Spirit for team work, well managed projects and industry orientation
  27576. will be assessed very positively. The temporary assignment is for 6 years 
  27577. usually (3 years initially plus 3 years extension). Compensation follows the 
  27578. German university system (C1 or C2).
  27579.  
  27580. Interested candidates may send e-mail (short resume sufficient for first
  27581. contact) or phone:    
  27582.             Udo Brocker
  27583.             e-mail: udo@lfbs.rwth-aachen.de
  27584.             Tel.: +49-241-80-7635
  27585.  
  27586. ......................................................................
  27587.   |  _       Udo Brocker, Lehrstuhl fuer Betriebssysteme, RWTH Aachen
  27588.   |_|_`__    Kopernikusstr. 16, D-52056 Aachen,
  27589.     | |__)   Tel.: +49-241-807635; Fax: +49-241-806346
  27590.       |__)   email: udo@lfbs.rwth-aachen.de
  27591.  
  27592.  
  27593.  
  27594.  
  27595.  
  27596.  
  27597.  
  27598. Approved: parallel@hubcap.clemson.edu
  27599. Follow-up: comp.parallel
  27600. Path: bounce-back
  27601. Newsgroups: comp.parallel
  27602. From: djb1@ukc.ac.uk
  27603. Newsgroups: comp.sys.transputer,comp.parallel,comp.dcom.cell-relay
  27604. Subject: Networks, Routers and Transputers Book available via ftp
  27605. Date: Fri, 12 Nov 93 13:53:00 GMT
  27606. Organization: Computing Lab, University of Kent at Canterbury, UK.
  27607. Keywords: networks, routers, transputers, virtual channels, ATM
  27608.  
  27609. We are pleased to announce the FREE electronic distribution of the
  27610. following book:
  27611.  
  27612.                    Networks, Routers and Transputers:
  27613.            ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  27614.                  Function, Performance and Applications
  27615.                  ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  27616.  
  27617. Editted by:
  27618.   M.D. May, P.W. Thompson and P.H. Welch
  27619.  
  27620. Written by:
  27621.   C.J. Adams, C. Barnaby, J.W. Burren, R. Francis, V.A. Griffiths,
  27622.   H. Gurney, J.M. Kerridge, P.F. Linnington, M.D. May, D.A. Nicole,
  27623.   N. Richards, R.M. Shepherd, M. Simpson, P.W. Thompson,
  27624.   C.P.H. Walker, P.H. Welch and J.M. Wilson
  27625.  
  27626. The introduction of high-speed serial communication links and general
  27627. purpose VLSI routers offers new opportunites in system design.  C104
  27628. routers can be used to construct high throughput low latency
  27629. interconnection networks for use in telecommunications, parallel
  27630. computers and electronic systems in general.  The T9000 transputer
  27631. with its integrated communications links can be connected directly to
  27632. these networks, providing high performance data-handling, protocol
  27633. conversion and network control.  The first chapters cover the
  27634. rationale behind the design of the new links, the C104 universal
  27635. packet router and the T9000 'virtual channel' processor.  Other
  27636. chapters deal with interconnection networks for parallel computers
  27637. and specific topics relevant to building powerful systems from C104
  27638. routers and T9000 transputers.  The book ends with detailed
  27639. application case-studies: very large (parallel) database machines,
  27640. high-performance switches for the CCITT Asynchronous Transfer Mode
  27641. (ATM) broadband networks (both 'public' and 'on-your-desk') and
  27642. distributed scalable multimedia systems (built on ATM).
  27643.  
  27644. This book was written by the technical design-engineers at INMOS who
  27645. were responsible for the major decisions, plus independent experts
  27646. associated with the database, networking and multi-media industries.
  27647.  
  27648.  
  27649. Paper Version
  27650. ~~~~~~~~~~~~~
  27651. IOS Press publish the physical version:
  27652.  
  27653.     Networks, Routers and Transputers:
  27654.     Function, Performance and Applications
  27655.  
  27656.     Edited by M.D. May, P.W. Thompson and P.H. Welch
  27657.     IOS Press 1993, 210pp, hard cover, ISBN: 90 5199 129 0
  27658.  
  27659.     Price: US$80 / GBP 55
  27660.  
  27661.     UK and Ireland             USA and Canada        Rest of World
  27662.  
  27663.     IOS Press/Lavis Marketing  IOS Press, Inc.       IOS Press
  27664.     73 Lime Walk               Postal Drawer 10558   Van Diemenstraat 94
  27665.     Headington                 Burke, VA 22009-0558  1013 CN Amsterdam
  27666.     Oxford OX3 7AD             USA                   Netherlands
  27667.     England
  27668.  
  27669.     FAX: +44 (0)865 75 0079    FAX +1 703 250 47 05  FAX: +31 20 620 34 19
  27670.  
  27671.  
  27672. The Electronic Version
  27673. ~~~~~~~~~~~~~~~~~~~~~~
  27674. The book is now available in electronic form for personal use only
  27675. (NOT to be resold) courtesty of the publishers (IOS Press) and the
  27676. copyright holders (INMOS Ltd and the authors).
  27677.  
  27678. This is available from the Transputer, occam and parallel computing
  27679. archive at unix.hensa.ac.uk in /parallel/books/ios/nrat.
  27680.  
  27681. The book is split up for ease of access with each chapter present as one
  27682. or more PostScript file, packed using the compress(1) program.
  27683.  
  27684. The files are:
  27685.  
  27686.     -rw-r--r--  1 djb1        26981 Nov  9 16:08 Overview
  27687.     -rw-r--r--  1 djb1       109591 Oct 12 16:46 Introduction.ps.Z
  27688.     -rw-r--r--  1 djb1        94295 Oct 12 16:34 Chapter1.ps.Z
  27689.     -rw-r--r--  1 djb1       114029 Oct 12 16:41 Chapter2.ps.Z
  27690.     -rw-r--r--  1 djb1       113643 Oct 12 16:41 Chapter3.ps.Z
  27691.     -rw-r--r--  1 djb1       155458 Oct 12 16:41 Chapter4.ps.Z
  27692.     -rw-r--r--  1 djb1       188313 Oct 12 16:42 Chapter5.ps.Z
  27693.     -rw-r--r--  1 djb1       446783 Oct 12 16:43 Chapter6a.ps.Z
  27694.     -rw-r--r--  1 djb1       374537 Oct 12 16:44 Chapter6b.ps.Z
  27695.     -rw-r--r--  1 djb1       140311 Oct 12 16:44 Chapter7.ps.Z
  27696.     -rw-r--r--  1 djb1       115529 Oct 12 16:45 Chapter8.ps.Z
  27697.     -rw-r--r--  1 djb1       237419 Oct 12 16:46 Chapter9.ps.Z
  27698.     -rw-r--r--  1 djb1       504682 Oct 12 16:36 Chapter10a.ps.Z
  27699.     -rw-r--r--  1 djb1       599387 Oct 12 16:37 Chapter10b.ps.Z
  27700.     -rw-r--r--  1 djb1       676387 Oct 12 16:39 Chapter10c.ps.Z
  27701.     -rw-r--r--  1 djb1       179450 Oct 12 16:40 Chapter10d.ps.Z
  27702.     -rw-r--r--  1 djb1       271046 Oct 12 16:40 Chapter11.ps.Z
  27703.     -rw-r--r--  1 djb1       428921 Oct 12 16:34 Appendices.ps.Z
  27704.  
  27705. The file Overview contains the description of each chapter and
  27706. follows at the end of this article.
  27707.  
  27708. You can get the book via either anonymous ftp by contacting
  27709.     site: unix.hensa.ac.uk (129.12.21.7)
  27710.     path: /parallel/books/ios/nrat/<file>
  27711.  
  27712. or via emailing mail archive@unix.hensa.ac.uk with the contents
  27713.     send /parallel/books/ios/nrat/<file>
  27714. for each <file> in the list above.
  27715.  
  27716. We _STRONGLY_ suggest you get the Overview file first (or read the file
  27717. below) and pick the chapters that interest you rather than taking all 5
  27718. megabytes of files.
  27719.  
  27720. Enjoy
  27721.  
  27722. Dave Beckett / Peter Thompson
  27723. ------------------------------------------------------------------------
  27724.  
  27725.                  Networks, Routers and Transputers:
  27726.                                   
  27727.                Function, Performance and Applications
  27728.  
  27729.           Edited by: M.D. May, P.W. Thompson and P.H. Welch
  27730.  
  27731.  
  27732.  
  27733. Preface
  27734.  
  27735. High speed networks are an essential part of public and private
  27736. telephone and computer communications systems.  An important new
  27737. development is the use of networks within electronic systems to form
  27738. the connections between boards, chips and even the subsystems of a
  27739. chip.  This trend will continue over the 1990s, with networks
  27740. becoming the preferred technology for system interconnection.
  27741.  
  27742. Two important technological advances have fuelled the development of
  27743. interconnection networks.  First, it has proved possible to design
  27744. high-speed links able to operate reliably between the terminal pins
  27745. of VLSI chips.  Second, high levels of component integration permit
  27746. the construction of VLSI routers which dynamically route messages via
  27747. their links.  These same two advances have allowed the development of
  27748. embedded VLSI computers to provide functions such as network
  27749. management and data conversion.
  27750.  
  27751. Networks built from VLSI routers have important properties for system
  27752. designers.  They can provide high data throughput and low delay; they
  27753. are scalable up to very large numbers of terminals; and they can
  27754. support communication on all of their terminals at the same time.  In
  27755. addition, the network links require only a small number of connection
  27756. points on chips and circuit boards.  The most complex routing
  27757. problems are moved to the place where they can be done most easily
  27758. and economically - within the VLSI routers.
  27759.  
  27760. The first half of this book brings together a collection of topics in
  27761. the construction of communication networks.  The first chapters are
  27762. concerned with the technologies for network construction.  They cover
  27763. the design of networks in terms of standard links and VLSI routing
  27764. chips, together with those aspects of the transputer which are
  27765. directly relevant to its use for embedded network computing
  27766. functions.  Two chapters cover performance modelling of links and
  27767. networks, showing the factors which must be taken into consideration
  27768. in network design.
  27769.  
  27770. The second half of the book brings together a collection of topics in
  27771. the application of communication networks.  These include the design
  27772. of interconnection networks for high-performance parallel computers,
  27773. and the design of parallel database systems.  The final chapters
  27774. discuss the construction of large-scale networks which meet the
  27775. emerging ATM protocol standards for public and private communications
  27776. systems.
  27777.  
  27778. The 1990s will see the progressive integration of computing and
  27779. communications: networks will connect computers; computers will be
  27780. embedded within networks; networks will be embedded within
  27781. computers. Thus this book is intended for all those involved in the
  27782. design of the next generation of computing and communications
  27783. systems.
  27784.  
  27785.     February 1993
  27786.  
  27787. Work on this subject has been supported under various ESPRIT
  27788. projects, in particular `Parallel Universal Message-passing
  27789. Architecture' (PUMA, P2701), and more recently also under the
  27790. `General Purpose MIMD' (P5404) project. The assistance of the EC is
  27791. gratefully acknowledged.
  27792.  
  27793.  
  27794.  
  27795. Contents
  27796.  
  27797. [ Introduction.ps.Z - 109591 bytes ]
  27798.  
  27799. 1 Transputers and Routers: Components for Concurrent Machines
  27800. [ Chapter1.ps.Z - 94295 bytes ]
  27801. 1.1  Introduction
  27802. 1.2  Transputers
  27803. 1.3  Routers
  27804. 1.4  Message Routing
  27805. 1.5  Addressing
  27806. 1.6  Universal Routing
  27807. 1.7  Conclusions
  27808.  
  27809. 2 The T9000 Communications Architecture
  27810. [ Chapter2.ps.Z - 114029 bytes ]
  27811. 2.1  Introduction
  27812. 2.2  The IMS T9000
  27813. 2.3  Instruction set basics and processes
  27814. 2.4  Implementation of Communications
  27815. 2.5  Alternative input
  27816. 2.6  Shared channels and Resources
  27817. 2.7  Use of resources
  27818. 2.8  Conclusion
  27819.  
  27820. 3 DS-Links and C104 Routers
  27821. [ Chapter3.ps.Z - 113643 bytes ]
  27822. 3.1  Introduction
  27823. 3.2  Using links between devices
  27824. 3.3  Levels of link protocol
  27825. 3.4  Channel communication
  27826. 3.5  Errors on links
  27827. 3.6  Network communications: the IMS C104
  27828. 3.7  Conclusion
  27829.  
  27830. 4 Connecting DS-Links
  27831. [ Chapter4.ps.Z - 155458 bytes ]
  27832. 4.1  Introduction
  27833. 4.2  Signal properties of transputer links
  27834. 4.3  PCB connections
  27835. 4.4  Cable connections
  27836. 4.5  Error Rates
  27837. 4.6  Optical interconnections
  27838. 4.7  Standards
  27839. 4.8  Conclusions
  27840. 4.9  References
  27841. 4.10  Manufacturers and products referred to
  27842.  
  27843. 5 Using Links for System Control
  27844. [ Chapter5.ps.Z - 188313 bytes ]
  27845. 5.1  Introduction
  27846. 5.2  Control networks
  27847. 5.3  System initialization
  27848. 5.4  Debugging
  27849. 5.5  Errors
  27850. 5.6  Embedded applications
  27851. 5.7  Control system
  27852. 5.8  Commands
  27853. 5.9  Conclusions
  27854.  
  27855. 6 Models of DS-Link Performance
  27856. [ Chapter6a.ps.Z - 446783 bytes ]
  27857. [ Chapter6b.ps.Z - 374537 bytes ]
  27858. 6.1  Performance of the DS-Link Protocol
  27859. 6.2  Bandwidth Effects of Latency
  27860. 6.3  A model of Contention in a Single C104
  27861. 6.4  Summary
  27862.  
  27863. 7 Performance of C104 Networks
  27864. [ Chapter7.ps.Z - 140311 bytes ]
  27865. 7.1  The C104 switch
  27866. 7.2  Networks and Routing Algorithms
  27867. 7.3  The Networks Investigated
  27868. 7.4  The traffic patterns
  27869. 7.5  Universal Routing
  27870. 7.6  Results
  27871. 7.7  Performance Predictability
  27872. 7.8  Conclusions
  27873.  
  27874. 8 General Purpose Parallel Computers
  27875. [ Chapter8.ps.Z - 115529 bytes ]
  27876. 8.1  Introduction
  27877. 8.2  Universal message passing machines
  27878. 8.3  Networks for Universal message passing machines
  27879. 8.4  Building Universal Parallel Computers from T9000s and C104s
  27880. 8.5  Summary
  27881.  
  27882. 9 The Implementation of Large Parallel Database Machines on T9000 and
  27883. C104 Networks
  27884. [ Chapter9.ps.Z - 237419 bytes ]
  27885. 9.1  Database Machines
  27886. 9.2  Review of the T8 Design
  27887. 9.3  An Interconnection Strategy
  27888. 9.4  Data Storage
  27889. 9.5  Interconnection Strategy
  27890. 9.6  Relational Processing
  27891. 9.7  Referential Integrity Processing
  27892. 9.8  Concurrency Management
  27893. 9.9  Complex Data Types
  27894. 9.10  Recovery
  27895. 9.11  Resource Allocation and Scalability
  27896. 9.12  Conclusions
  27897.  
  27898. 10 A Generic Architecture for ATM Systems
  27899. [ Chapter10a.ps.Z - 504682 bytes ]
  27900. [ Chapter10b.ps.Z - 599387 bytes ]
  27901. [ Chapter10c.ps.Z - 676387 bytes ]
  27902. [ Chapter10d.ps.Z - 179450 bytes ]
  27903. 10.1  Introduction
  27904. 10.2  An Introduction to Asynchronous Transfer Mode
  27905. 10.3  ATM Systems
  27906. 10.4  Mapping ATM onto DS-Links
  27907. 10.5  Conclusions
  27908.  
  27909. 11 An Enabling Infrastructure for a Distributed Multimedia Industry
  27910. [ Chapter11.ps.Z - 271046 bytes ]
  27911. 11.1  Introduction
  27912. 11.2  Network Requirements for Multimedia
  27913. 11.3  Integration and Scaling
  27914. 11.4  Directions in networking technology
  27915. 11.5  Convergence of Applications, Communications and Parallel Processing
  27916. 11.6  A Multimedia Industry - the Need for Standard Interfaces
  27917. 11.7  Outline of a Multimedia Architecture
  27918. 11.8  Levels of conformance
  27919. 11.9  Building stations from components
  27920. 11.10   Mapping the Architecture onto Transputer Technology
  27921.  
  27922. Appendices:
  27923. [ Appendices.ps.Z - 428921 bytes ]
  27924. A New link cable connector
  27925. B Link waveforms
  27926. C DS-Link Electrical specification
  27927. D An Equivalent circuit for DS-Link Output Pads
  27928.  
  27929.  
  27930.  
  27931.  
  27932. 1: Transputers and Routers: Components for Concurrent Machines
  27933.   M.D. May and P.W. Thompson 
  27934. [ Chapter1.ps.Z - 94295 bytes ]
  27935.  
  27936. This chapter describes an architecture for concurrent machines
  27937. constructed from two types of component: `transputers' and `routers'.
  27938. In subsequent chapters we consider the details of these two
  27939. components, and show the architecture can be adapted to include other
  27940. types of component.
  27941.  
  27942. A transputer is a complete microcomputer integrated in a single VLSI
  27943. chip.  Each transputer has a number of communication links, allowing
  27944. transputers to be interconnected to form concurrent processing
  27945. systems.  The transputer instruction set contains instructions to
  27946. send and receive messages through these links, minimizing delays in
  27947. inter-transputer communication.  Transputers can be directly
  27948. connected to form specialised networks, or can be interconnected via
  27949. routing chips.  Routing chips are VLSI building blocks for
  27950. interconnection networks: they can support system-wide message
  27951. routing at high throughput and low delay.
  27952.  
  27953.  
  27954.  
  27955. 2: The T9000 Communications Architecture
  27956.    M.D. May, R.M. Shepherd and P.W. Thompson 
  27957. [ Chapter2.ps.Z - 114029 bytes ]
  27958.  
  27959. This chapter describes the communications capabilities implemented in
  27960. the IMS T9000 transputer, and supported by the IMS C104 packet
  27961. router, which is discussed in chapter 3.  The T9000 retains the
  27962. point-to-point synchronised message passing model implemented in
  27963. first generation of transputers but extends it in two significant
  27964. ways.  The most important innovation of the T9000 is the
  27965. virtualization of external communication.  This allows any number of
  27966. virtual links to be established over a single hardware link between
  27967. two directly connected T9000s, and for virtual links to be
  27968. established between T9000s connected by a routing network constructed
  27969. from C104 routers.  A second important innovation is the introduction
  27970. of a many-one communication mechanism, the resource. This provides,
  27971. amongst other things, an efficient distributed implementation of
  27972. servers.
  27973.  
  27974.  
  27975.  
  27976. 3: DS-Links and C104 Routers
  27977.    M. Simpson and P.W. Thompson 
  27978. [ Chapter3.ps.Z - 113643 bytes ]
  27979.  
  27980. Millions of serial communication links have been shipped as an
  27981. integral part of the transputer family of microprocessor devices.
  27982. This `OS-Link', as it is known, provides a physical point-to-point
  27983. connection between two processes running in separate processors.  It
  27984. is full-duplex, and has an exceptionally low implementation cost and
  27985. an excellent record for reliability.  Indeed, the OS-Link has been
  27986. used in almost all sectors of the computer, telecommunications and
  27987. electronics markets.  Many of these links have been used without
  27988. transputers, or with a transputer simply serving as an intelligent
  27989. DMA controller.  However, they are now a mature technology, and by
  27990. today's standards their speed of 20 Mbits/s is relatively low.
  27991.  
  27992. Since the introduction of the OS-Link, a new type of serial
  27993. interconnect has evolved, known as the DS-Link.  A major feature of
  27994. the DS-Link is that it provides a physical connection over which any
  27995. number of software (or `virtual') channels may be multiplexed; these
  27996. can either be between two directly connected devices, or can be
  27997. between any number of different devices, if the links are connected
  27998. via (packet) routing switches.  Other features include detection and
  27999. location of the most likely errors, and a transmission speed of 100
  28000. Mbits/s, with 200 Mbits/s planned and further enhancement possible.
  28001.  
  28002. Although DS-Links have been designed for processor to processor
  28003. communication, they are equally appropriate for processor to memory
  28004. communication and specialized applications such as disk drives, disk
  28005. arrays, or communication systems.
  28006.  
  28007.  
  28008. 4: Connecting DS-Links
  28009.    H. Gurney and C.P.H. Walker 
  28010. [ Chapter4.ps.Z - 155458 bytes ]
  28011.  
  28012. Digital design engineers are accustomed to signals that behave as
  28013. ones and zeros, although they have to be careful about dissipation
  28014. and ground inductance, which become increasingly important as speeds
  28015. increase.  Communications engineers, on the other hand, are
  28016. accustomed to disappearing signals.  They design modems that send
  28017. 19200 bits per second down telephone wires that were designed 90
  28018. years ago to carry 3.4KHz voice signals.  Their signals go thousands
  28019. of kilometers.  They are used to multiplexing lots of slow signals
  28020. down a single fast channel. They use repeaters, powered by the signal
  28021. wires.
  28022.  
  28023. Digital designers do not need all these communications techniques
  28024. yet. But sending 100Mbits/s or more down a cable much longer than a
  28025. meter has implications that are more analog than digital, which must
  28026. be taken care of just like the dissipation and ground inductance
  28027. problems, to ensure that signals still behave as ones and zeros.
  28028.  
  28029. Actually, it is easy to overestimate the problems of these signal
  28030. speeds.  Engineers designing with ECL, even fifteen years ago, had to
  28031. deal with some of the problems of transmitting such signals reliably,
  28032. at least through printed circuit boards (PCBs), backplanes, and short
  28033. cables.  One of the best books on the subject is the Motorola `MECL
  28034. System Design Handbook' by William R Blood, Jr., which explains about
  28035. transmission lines in PCBs and cables.  This shows waveforms of a
  28036. 50MHz signal at the end of 50ft (15m) of twisted pair, and of a
  28037. 350MHz signal at the end of 10ft (3m) of twisted pair, both with
  28038. respectable signals.
  28039.  
  28040. This chapter first discusses the signal properties of DS-Links. PCB
  28041. and cable connections are then described, followed by a section on
  28042. error rates: errors are much less frequent on transputer links than
  28043. is normal in communications.  A longer section introduces some of the
  28044. characteristics of optical connections including optical fibre, which
  28045. should be suitable for link connections up to 500m, using an
  28046. interface chip to convert between the link and the fibre.  A pointer
  28047. is given towards possible standards for link connections.
  28048.  
  28049.  
  28050. 5: Using Links for System Control
  28051.    J.M. Wilson
  28052. [ Chapter5.ps.Z - 188313 bytes ]
  28053.  
  28054. The T9000 family of devices includes processors and routers which
  28055. have subsystems and interfaces which are highly flexible to match the
  28056. requirements of a wide range of applications.  In addition to the
  28057. static configuration requirements of subsystems such as the memory
  28058. interface of the T9000, the more dynamic aspects of a network of
  28059. devices must be configured before application software is loaded.
  28060. These more dynamic items include:
  28061.  
  28062. - cache organization; 
  28063.  
  28064. - data link bit-rates; 
  28065.  
  28066. - virtual link control blocks; 
  28067.  
  28068. If T9000 processors are configured as stand-alone devices, the
  28069. configurable subsystems will be initialized by instructions contained
  28070. in a local ROM.  When the devices are integrated as part of a network
  28071. with a static configuration every processor in the network could also
  28072. initialize these subsystems independently by executing code contained
  28073. in a local ROM.  Typically, however, networks of T9000 family devices
  28074. contain routers as well as processors and executing code from a ROM
  28075. is not an option for a routing device.  As a consequence, routing
  28076. devices must be configured under external control.  During system
  28077. development or for systems which are used for multiple applications a
  28078. flexible configuration mechanism for processors is also required.
  28079.  
  28080. Debugging of software and hardware on networks consisting of many
  28081. devices is not a simple problem.  The major difficulty is in
  28082. monitoring the behavior of the system as an integrated whole rather
  28083. than observing the individual behavior of the separate components.  A
  28084. flexible mechanism which allows monitoring tools to observe and
  28085. manage every device in a network in a simple manner is essential in
  28086. designing a system-wide debugging environment.
  28087.  
  28088.  
  28089. 6: Models of DS-Link Performance
  28090.    C. Barnaby, V.A. Griffiths and P.W. Thompson
  28091. [ Chapter6a.ps.Z - 446783 bytes ]
  28092. [ Chapter6b.ps.Z - 374537 bytes ]
  28093.  
  28094. This chapter contains analytic studies of the performance of
  28095. DS-Links, the IMS T9000 virtual channel processor and the IMS C104
  28096. packet routing switch.
  28097.  
  28098. The first section considers the overheads imposed by the various
  28099. layers of the DS-Link protocol on the raw bit-rate.  Results are
  28100. presented for the limiting bandwidth as a function of message size,
  28101. which show that the overheads are very moderate for all but the
  28102. smallest messages (for which the cost of initiating and receiving a
  28103. message will dominate in any case).
  28104.  
  28105. The next section analyses the diminution of bandwidth caused by
  28106. latency at both the token flow-control and packet-acknowledge layers
  28107. of the protocol.  The losses due to stalls at the packet level of the
  28108. protocol when only a single virtual channel is active are plotted in
  28109. the latter part of the section.
  28110.  
  28111. The final section considers the performance of the C104 routing
  28112. switch under heavy load, both in the average and the worst case.
  28113.  
  28114.  
  28115. 7: Performance of C104 Networks
  28116.    C. Barnaby and M.D. May
  28117. [ Chapter7.ps.Z - 140311 bytes ]
  28118.  
  28119. The use of VLSI technology for specialised routing chips makes the
  28120. construction of high-bandwidth, low-latency networks possible. One
  28121. such chip is the IMS C104 packet routing chip, described in chapter
  28122. 3.  This can be used to build a variety of communication networks.
  28123.  
  28124. In this chapter, interconnection networks are characterized by their
  28125. throughput and delay. Three families of topology are investigated,
  28126. and the throughput and delay are examined as the size of the network
  28127. varies.  Using deterministic routing (in which the same route is
  28128. always used between source and destination), random traffic patterns
  28129. and systematic traffic patterns are investigated on each of the
  28130. networks.  The results show that on each of the families examined,
  28131. there is a systematic traffic pattern which severely affects the
  28132. throughput of the network, and that this degradation is more severe
  28133. for the larger networks.  The use of universal routing, where an
  28134. amount of random behavior is introduced, overcomes this problem and
  28135. provides the scalability inherent to the network structure. This is
  28136. also shown to be an efficient use of the available network links.
  28137.  
  28138. An important factor in network performance is the predictability of
  28139. the time it will take a packet to reach its destination.
  28140. Deterministic routing is shown to give widely varying packet
  28141. completion times with variation of the traffic pattern in the
  28142. network.  Universal routing is shown to remove this effect, with the
  28143. time taken for a packet to reach its destination being stabilized.
  28144.  
  28145. In the following investigation, we have separated issues of protocol
  28146. overhead, such as flow control, from issues of network performance.
  28147.  
  28148.  
  28149. 8: General Purpose Parallel Computers
  28150.    C. Barnaby, M.D. May and D.A. Nicole
  28151. [ Chapter8.ps.Z - 115529 bytes ]
  28152.  
  28153. Over the last decade, many different parallel computers have been
  28154. developed, which have been used in a wide range of applications.
  28155. Increasing levels of component integration, coupled with difficulties
  28156. in further increasing clock speed of sequential machines, make
  28157. parallel processing technically attractive.  By the late 1990s, chips
  28158. with 108 transistors will be in use, but design and production will
  28159. continue to be most effective when applied to volume manufacture.  A
  28160. ``universal" parallel architecture would allow cheap, standard
  28161. multiprocessors to become pervasive, in much the same way that the
  28162. von Neumann architecture has allowed standard uniprocessors to take
  28163. over from specialised electronics in many application areas.
  28164.  
  28165. Scalable performance
  28166.  
  28167. One of the major challenges for universal parallel architecture is to
  28168. allow performance to scale with the number of processors.  There are
  28169. obvious limits to scalability:
  28170.  
  28171. - For a given problem size, there will be a limit to the number of
  28172. processors which can be used efficiently.  However, we would expect
  28173. it to be easy to increase the problem size to exploit more
  28174. processors.
  28175.  
  28176. - There will in practice be technological limits to the number of
  28177. processors used.  These will include physical size, power
  28178. consumption, thermal density and reliability. However, as we expect
  28179. performance/chip to achieve 100-1000 Mflops during the 1990s, the
  28180. most significant markets will be served by machines with up to 100
  28181. processors.
  28182.  
  28183. Software portability
  28184.  
  28185. Another major challenge for a universal parallel architecture is to
  28186. eliminate the need to design algorithms to match the details of
  28187. specific machines.  Algorithms must be based on features common to a
  28188. large number of machines, and which can be expected to remain common
  28189. to many machines as technology evolves.  Both programmer and computer
  28190. designer have much to gain from identifying the essential features of
  28191. a universal parallel architecture:
  28192.  
  28193. - the programmer because his programs will work on a variety of
  28194. machines - and will continue to work on future machines.
  28195.  
  28196. - the computer designer because he will be able to introduce new
  28197. designs which make best use of technology to increase performance of
  28198. the software already in use.
  28199.  
  28200.  
  28201. 9: The Implementation of Large Parallel Database Machines on T9000
  28202. and C104 Networks
  28203.    J.M. Kerridge
  28204. [ Chapter9.ps.Z - 237419 bytes ]
  28205.  
  28206. The design of large database machines requires the resulting
  28207. implementation be scalable and cheap.  This means that use has to be
  28208. made of commodity items whenever possible. The design also has to
  28209. ensure that scalability is incorporated into the machine from its
  28210. inception rather than as an after-thought.  Scalability manifests
  28211. itself in two different ways.  First, the initial size of a system
  28212. when it is installed should be determined by the performance and size
  28213. requirements of the desired application at that time.  Secondly, the
  28214. system should be scalable as processing requirements change during
  28215. the life-time of the system.  The T9000 and C104 provide a means of
  28216. designing a large parallel database machine which can be constructed
  28217. from commodity components in a manner that permits easy scalability.
  28218.  
  28219.  
  28220. 10: A Generic Architecture for ATM Systems
  28221.   C. Barnaby and N. Richards
  28222. [ Chapter10a.ps.Z - 504682 bytes ]
  28223. [ Chapter10b.ps.Z - 599387 bytes ]
  28224. [ Chapter10c.ps.Z - 676387 bytes ]
  28225. [ Chapter10d.ps.Z - 179450 bytes ]
  28226.  
  28227. Introduction
  28228.  
  28229. The rapid growth in the use of personal computers and
  28230. high-performance workstations over the last ten years has fueled an
  28231. enormous expansion in the data communications market.  The desire to
  28232. connect computers together to share information, common databases and
  28233. applications led to the development of Local Area Networks and the
  28234. emergence of distributed computing.  At the same time, the
  28235. geographical limitations of LANs and the desire to provide
  28236. corporate-wide networks stimulated the development towards faster,
  28237. more reliable telecommunications networks for LAN interconnection,
  28238. with the need to support data as well as traditional voice traffic.
  28239. The resulting increase in the use of digital technology and complex
  28240. protocols has resulted in the need for enormous computing capability
  28241. within the telecommunications network itself, with the consequent
  28242. emergence of the concept of the Intelligent Network.  With new,
  28243. higher bandwidth applications such as video and multimedia on the
  28244. horizon and user pressure for better, more seamless connection
  28245. between computer networks, this convergence of computing and
  28246. communications systems looks set to accelerate during the nineties.
  28247.  
  28248. A key step in this convergence is the development by the CCITT of
  28249. standards for the Broadband Integrated Services Digital Network
  28250. (B-ISDN). B-ISDN seeks to provide a common infrastructure on which a
  28251. wide variety of voice, data and video services can be provided,
  28252. thereby eliminating (hopefully) the final barriers between the world
  28253. of computer networks and the world of telecommunications.  The
  28254. technological basis for B-ISDN chosen by the CCITT is the
  28255. Asynchronous Transfer Mode (ATM), a fast-packet switching technique
  28256. using small, self-routing packets called cells.
  28257.  
  28258. The single most important element which has driven the development of
  28259. both distributed computing and the intelligent network is the
  28260. microprocessor.  Indeed, as systems such as telecommunications
  28261. networks have come to look more like distributed computers, so
  28262. microprocessor architectures which support distributed
  28263. multi-processing have come to look like communications networks. A
  28264. message-passing computer architecture, such as that of the
  28265. transputer, shares much in common with a packet switching system and
  28266. thus provides a natural architecture from which to build
  28267. communication systems.  The communications architecture of the latest
  28268. generation transputer, the T9000, shares much in common with ATM and
  28269. is thus a natural choice for the implementation of ATM systems.
  28270.  
  28271. In this Chapter we describe the application of the transputer, in
  28272. particular the serial links and packet routing capabilities of the
  28273. communications architecture, to the design of ATM switching systems.
  28274. We discuss their use in public switching systems and present a
  28275. generic architecture for the implementation of private ATM switches
  28276. and internetworking applications.  We look at terminal adaption
  28277. requirements and develop some ideas for interfacing transputers,
  28278. routers and serial links to ATM networks.  Finally, we consider
  28279. various aspects of the performance of this architecture.
  28280.  
  28281.  
  28282. 11: An Enabling Infrastructure for a Distributed Multimedia Industry
  28283.     C.J. Adams, J.W. Burren, J.M. Kerridge,
  28284.     P.F. Linnington, N. Richards and P.H. Welch
  28285. [ Chapter11.ps.Z - 271046 bytes ]
  28286.  
  28287. Advances in technology for telecommunication and new methods for
  28288. handling media such as voice and video have made possible the
  28289. creation of a new type of information system.  Information systems
  28290. have become an essential part of the modern world and they need to be
  28291. made accessible to a very high proportion of the working population.
  28292. It is therefore important to exploit all the means available for
  28293. making the transfer of information effective and accurate.  In fields
  28294. such as computer assisted training, multimedia presentation is
  28295. already well established as a tool for conveying complex ideas.  So
  28296. far, however, the application of multimedia solutions to information
  28297. retrieval has been limited to single isolated systems, because the
  28298. bulk of the information required has needed specialized storage
  28299. techniques and has exceeded the capacity of present day network
  28300. infrastructure.  There do exist special purpose multimedia
  28301. communication systems, such as those used for video-conferencing, but
  28302. their cost and complexity separates them from the common mass of
  28303. computing support.
  28304.  
  28305. If, however, distributed multimedia systems can be realized, many
  28306. possibilities for enhanced communication and more effective access to
  28307. information exist.  The key to this new generation of information
  28308. systems is integration, bringing the power of multimedia display to
  28309. the users in their normal working environment and effectively
  28310. breaking down many of the barriers implicit in geographical
  28311. distribution.  Now that significant computing power is available on
  28312. the desktop, integration of voice and video is the next major step
  28313. forward.
  28314.  
  28315. These integrated systems represent a very large market for components
  28316. and for integrating expertise.  It will probably be the largest
  28317. single growth area for new IT applications over the next ten years.
  28318. A coordinated set of components, conforming to a common architectural
  28319. model with agreed interface standards, is required to allow the
  28320. research and development of prototypes for new applications and to
  28321. progress smoothly to the delivery of complete multimedia distributed
  28322. systems.  T9000 transputers, DS-Links and C104 routers provide a
  28323. cost-effective platform on which this infrastructure can be built.
  28324.  
  28325.  
  28326. Appendices
  28327. [ Appendices.ps.Z - 428921 bytes ]
  28328.  
  28329. Appendix A: New link cable connector
  28330.    C.P.H. Walker
  28331. This appendix describes a connector that will assist standardization
  28332. of transputer link connections.
  28333.  
  28334. Appendix B: Link waveforms
  28335.    C.P.H. Walker
  28336. This appendix shows waveforms of signals transmitted through cable and
  28337. fibre.
  28338.  
  28339. Appendix C: DS-Link Electrical specification
  28340.    R. Francis
  28341. This appendix gives detailed electrical parameters of DS-Links.
  28342.  
  28343. Appendix D: An Equivalent circuit for DS-Link Output Pads
  28344.    R. Francis
  28345. This appendix gives an equivalent circuit for the DS-Link output pads.
  28346.  
  28347. Approved: parallel@hubcap.clemson.edu
  28348. Follow-up: comp.parallel
  28349. Path: bounce-back
  28350. From: djb1@ukc.ac.uk
  28351. Newsgroups: comp.parallel,comp.sys.transputer,comp.parallel.pvm
  28352. Subject: [LONG] Transputer, occam and parallel computing archive: NEW FILES
  28353. Organization: Computing Lab, University of Kent at Canterbury, UK.
  28354. Summary: Loads more files. See ADMIN article too for other info.
  28355. Keywords: transputer, occam, parallel, archive
  28356. Sender: news@ukc.ac.uk
  28357.  
  28358. This is the new files list for the Transputer, occam and parallel
  28359. computing archive.  Please consult the accompanying article for
  28360. administrative information and the various ways to access the files.
  28361. [For experts: ftp to unix.hensa.ac.uk and look in /parallel]
  28362.  
  28363. Dave
  28364.  
  28365.  
  28366. NEW FEATURES
  28367. ~~~~~~~~~~~~
  28368.  
  28369. * "Networks, Routers and Transputers" book - see detailed listing below
  28370.  
  28371. * INMOS Preliminary Datasheets for the C101 and C104 DS-Link processors
  28372.  
  28373. * FULL TEXT INDEX
  28374.  
  28375.   A nightly full text index is now being generated, of all the individual
  28376.   Index files.  This is probably the best way to find something by 'grepping'
  28377.   the file although it is very large.
  28378.  
  28379.     /parallel/index/FullIndex.ascii     223327 bytes
  28380.     /parallel/index/FullIndex.ascii.Z    74931 bytes    (compressed)
  28381.     /parallel/index/FullIndex.ascii.gz   52024 bytes    (gzipped)
  28382.  
  28383.  
  28384. NEW FILES since 28th October 1993 (newest first)
  28385. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  28386.  
  28387. /parallel/books/ios/nrat/
  28388.         "Networks, Routers & Transputers" book as compressed PostScript
  28389.         edited by M.D. May, P.W. Thompson and P.H. Welch.
  28390.  
  28391. /parallel/books/ios/nrat/Overview
  28392.     Overview of the book - READ THIS FIRST and pick a chapter
  28393.  
  28394. /parallel/books/ios/nrat/Introduction.ps.Z
  28395.     Introduction
  28396.  
  28397. /parallel/books/ios/nrat/Chapter1.ps.Z
  28398.     Transputers and Routers: Components for Concurrent Machines
  28399.  
  28400. /parallel/books/ios/nrat/Chapter2.ps.Z
  28401.     The T9000 Communications Architecture
  28402.  
  28403. /parallel/books/ios/nrat/Chapter3.ps.Z
  28404.     DS-Links and C104 Routers
  28405.  
  28406. /parallel/books/ios/nrat/Chapter4.ps.Z
  28407.     Connecting DS-Links
  28408.  
  28409. /parallel/books/ios/nrat/Chapter5.ps.Z
  28410.     Using Links for System Control
  28411.  
  28412. /parallel/books/ios/nrat/Chapter6a.ps.Z
  28413. /parallel/books/ios/nrat/Chapter6b.ps.Z
  28414.     Models of DS-Link Performance Parts 1 and 2
  28415.  
  28416. /parallel/books/ios/nrat/Chapter7.ps.Z
  28417.     Performance of C104 Networks
  28418.  
  28419. /parallel/books/ios/nrat/Chapter8.ps.Z
  28420.     General Purpose Parallel Computers
  28421.  
  28422. /parallel/books/ios/nrat/Chapter9.ps.Z
  28423.     The Impl. of Large Par. Database Machines on T9000 and C104 Nets
  28424.  
  28425. /parallel/books/ios/nrat/Chapter10a.ps.Z
  28426. /parallel/books/ios/nrat/Chapter10b.ps.Z
  28427. /parallel/books/ios/nrat/Chapter10c.ps.Z
  28428. /parallel/books/ios/nrat/Chapter10d.ps.Z
  28429.     A Generic Architecture for ATM Systems Parts 1 to 4
  28430.  
  28431. /parallel/books/ios/nrat/Chapter11.ps.Z
  28432.     An Enabling Infr. for a Distributed Multimedia Industry
  28433.  
  28434. /parallel/books/ios/nrat/Appendices.ps.Z
  28435.     Appendices A to D
  28436.  
  28437. 12th November 1994
  28438.  
  28439. [ Added Working Group documents and papers and reports for the         ]
  28440. [ IEEE Draft Std P1355 - Standard for Heterogeneous InterConnect (HIC) ]
  28441. [ (INMOS's DS Links) as well as datasheets for IMS C101 and IMS C104   ]
  28442. [ These are the documents on the INMOS UK ftp site, cleaned up         ]
  28443.  
  28444. /parallel/documents/inmos/ieee-hic/copper.ps.Z
  28445.     Long Distance Differential Transmission of DS Links over Copper
  28446.     Cable by Stefan Haas, Xinjian Liu and Brian Martin of CERN.
  28447.     34 pages.  981195 bytes uncompressed.
  28448.  
  28449. /parallel/documents/inmos/ieee-hic/data/C101.ps.Z
  28450.     IMS C101 parallel DS-Link adaptor - Preliminary Datasheet
  28451.     52 pages.  1679579 bytes uncompressed.
  28452.  
  28453. /parallel/documents/inmos/ieee-hic/data/C104.ps.Z
  28454.     IMS C104 packet routing switch - Preliminary Datasheet
  28455.     58 pages.  5834421 bytes uncompressed.
  28456.  
  28457. /parallel/documents/inmos/ieee-hic/draftd0.0.ps.Z
  28458.     IEEE Draft Std P1355 - Standard for Heterogeneous InterConnect (HIC)
  28459.     (Low Cost Low Latency Scalable Serial Interconnect for Parallel
  28460.     System Construction) of 7th October 1993.  Version D0.0
  28461.     80+ pages.  2306156 bytes uncompressed.
  28462.  
  28463. /parallel/documents/inmos/ieee-hic/fiber.ps.Z
  28464.     GP-MIMD T9000 Fiber Optic Link Extensions - Report on 850nm
  28465.     Fiber Optic Transceiver by Stefan Haas of ECP Division, CERN.
  28466.     22 pages.  417516 bytes uncompressed.
  28467.  
  28468. /parallel/documents/inmos/ieee-hic/pressrel.txt
  28469.     Press release about IEEE P1355 Working Group.  July 1993.
  28470.  
  28471. /parallel/documents/inmos/ieee-hic/roster.txt
  28472.     Roster of Working Group members
  28473.  
  28474. /parallel/documents/inmos/ieee-hic/wg19oct.txt
  28475.     Working group minutes of 19th October 1993
  28476.  
  28477. /parallel/documents/inmos/ieee-hic/wg1sep.txt
  28478.     Working group minutes of 1st September 1993
  28479.  
  28480. /parallel/documents/inmos/ieee-hic/wg22jun.txt
  28481.     Working group minutes of 22nd June 1993
  28482.  
  28483. 9th November 1993
  28484.  
  28485. /parallel/journals/jcse-par-alg-arch
  28486.     Call for papers for the Journal of Computer and Software
  28487.     Engineering Special Issue on Parallel Algorithms and Architectures
  28488.     to be published around January 1995.  Deadline: 1st May 1994.
  28489.  
  28490. /parallel/conferences/ieee-workshop-par-dist-simulations
  28491.     Call for papers for ACM/IEEE/SCS 8th Workshop on Parallel and
  28492.     Distributed Simulation being held from 6th-8th July 1994 at the
  28493.     University of Edinburgh, Scotland, UK.  Deadlines:  Papers:
  28494.     1st December 1993; Notification: 1st March 1994; Camera-ready copy:
  28495.     15th April 1994.
  28496.  
  28497. /parallel/faqs/linux-and-transputers
  28498.     Summary of current state of Linux and transputers by
  28499.     Michael Haardt <(michael)u31b3hs@pool.informatik.rwth-aachen.de>,
  28500.     author of the assembler and server package.
  28501.  
  28502. /parallel/courses/applications-of-par-programming
  28503.     Applications for High Performance Computers 14th-17th December 1993
  28504.     given by Telmat Informatique in Soultz, France.  Deadline for
  28505.     registration: 6th December 1993.
  28506.  
  28507. /parallel/conferences/raps-workshop-par-benchmarks
  28508.     Call for attendance for the RAPS Open Workshop on Parallel Benchmarks
  28509.     and Programming Models being held from 7th-8th December 1994 at
  28510.     Chilworth Manor Conference Centre, Southampton, UK.
  28511.  
  28512. /parallel/conferences/massive-parallelism
  28513.     Call for papers for 2nd International Workshop on Massive Parallelism:
  28514.     Hardware, Software and Applications being held from 3rd-7th October
  28515.     1994 and organized by: Istituto di Cibernetica, Naples, Italy.
  28516.     Deadlines: Manuscripts: 1st February 1994; Notification: 31st April
  28517.     1994; Camera-ready papers: 31st May 1994.
  28518.  
  28519. /parallel/books/mit/concurrent-oo.announce
  28520.     Announcement of book: "Research Directions in Concurrent OOP"
  28521.     edited by Gul Agha, Peter Wegner and Aki Yonezawa.
  28522.  
  28523. /parallel/conferences/podc94
  28524.     Call for papers for 1994 ACM Symposium on Principles of Distributed
  28525.     Computing (PODC) being held from 14th-17th August 1994 at Los Angeles,
  28526.     California, USA.  Deadlines: Abstracts: 4th February 1994; Acceptance:
  28527.     15th April 1994; Camera-ready copy: 10th May 1994.
  28528.  
  28529. /parallel/software/linux/assembler/server.tz
  28530. /parallel/software/linux/assembler/asld.tz
  28531.     Updated versions.
  28532.  
  28533. [ Added release notes for Mentat 2.6. Note: No binary distribution        ]
  28534. [ (executables) is included here due to the licensing restrictions.  It   ]
  28535. [ must be obtained from the source site directly and not distributed from ]
  28536. [ your site.  See README for details.                                     ]
  28537.  
  28538. /parallel/software/virginia/mentat/README.2.6
  28539.     New features in version 2.6
  28540.  
  28541. /parallel/software/virginia/mentat/Release26_notes.ps.Z
  28542.     Release notes for version 2.6
  28543.  
  28544. 8th November 1993
  28545.  
  28546. /parallel/conferences/ipps94-parallel-io-workshop
  28547.     Call for papers for the 2nd Annual Workshop on I/O In Parallel
  28548.     Computer Systems being held at IPPS (International Parallel Processing
  28549.     Symposium) 94.  The workshop will be held on 26th April 1994 at Hotel
  28550.     Regina, Cancun, Mexico.  Deadlines:  Paper: 31st January 1994;
  28551.     Notification: 15th March 1994; Camera-ready copy: 7th April 1994.
  28552.  
  28553. /parallel/documents/vendors/cray/cray-cs64000.announcement
  28554.     Announcement of the CRAY CS64000 by Cray Research, Inc.
  28555.  
  28556. /parallel/software/announcements/pablo
  28557.     Details of PABLO: a system for the collection, display, and
  28558.     analysis of parallel program performance data developed by
  28559.     Prof. Daniel A. Reed's research group at the University of Illinois
  28560.     at Urbana-Champaign, USA.
  28561.  
  28562. /parallel/faqs/classification-of-parallel-algorithms
  28563.     Summary of responses to a query about classifying parallel
  28564.     algorithms by Marion Wittmann <wittmann@Informatik.TU-Muenchen.DE>
  28565.  
  28566. /parallel/conferences/hicss28-par-and-dist-computing
  28567.     Call for Minitrack Propsals for the Software Technology Track
  28568.     focussing on Parallel and Distributed Computing: Theory,
  28569.     Systems and Applications at HICSS-28 (28th Hawaii International
  28570.     Conference on System Sciences) being held at Maui, Hawaii, USA
  28571.     from 3rd-6th January 1995. [A minitrack is either a half day or
  28572.     a full day of technical sessions. All sessions are conducted in
  28573.     a workshop-like setting and participants often participate in
  28574.     several different tracks] Deadlines: Proposals: 26th November
  28575.     1993; Notification: 31st December 1993.
  28576.  
  28577. /parallel/conferences/int-conf-par-processing-1994
  28578.     Call for papers for the 1994 International Conference on Parallel
  28579.     Processing (23rd Annual Conference) being held from 15th-19th August
  28580.     1994 at The Pennsylvania State University, Illinois, USA.  Deadlines:
  28581.     PAPERS: 10th January 1994;  Acceptance: 20th March 1994; TUTORIALS:
  28582.     1st March 1994.
  28583.  
  28584. [ Updated WoTUG, NATUG and WoTUG/Japan user group details: ]
  28585.  
  28586. /parallel/user-groups/transputer-user-groups
  28587.     Contact addresses for known world transputer user groups
  28588. /parallel/user-groups/natug/committee.doc
  28589.     North American Transputer User Group (NATUG) committee
  28590.  
  28591. /parallel/user-groups/wotug/committee.doc
  28592.     WoTUG committee members details
  28593.  
  28594. /parallel/user-groups/wotug/constitution.doc
  28595.     The new constitution of WoTUG, approved at the Sheffield meeting
  28596.     and first AGM.
  28597.  
  28598. /parallel/user-groups/wotug/sig-chairs.doc
  28599.     WoTUG Special Interest Group (SIG) chairs
  28600.  
  28601. /parallel/user-groups/wotug/minutes/1993-03-31
  28602.     Minutes of the first World occam and Transputer User Group (WoTUG)
  28603.     Annual General Meeting (AGM) held during the 16th WoTUG Technical
  28604.     Meeting, on 31 March 1993 at Earnshaw Hall, University of Sheffield,
  28605.     UK.  Minutes Secretary: Julie Clarke (University of Sheffield)
  28606.  
  28607. /parallel/user-groups/wotug-japan/committee.doc
  28608.     World occam and Transputer User Group Japan committee
  28609.  
  28610. /parallel/papers/twente
  28611.     Papers from researchesas at the Mechatronics Research Centre
  28612.     Twente and Control Laboratory, Department of Electrical Engineering,
  28613.     University of Twente, Netherlands.
  28614.  
  28615. /parallel/papers/twente/fft.ps.Z
  28616.     "A Generalized FFT algorithm on transputers" by Herman Roebbers,
  28617.     University of Twente, The Netherlands; Peter Welch, University of
  28618.     Kent at Canterbury, UK; Klaas Wijbrans, Van Rietschoten & Houwens,
  28619.     The Netherlands.
  28620.     ABSTRACT:
  28621.     "A Generalized alogrithm has been derived for the execution of the
  28622.     Cooley-Tukey FFT algorithm on a distributed memory machine.  This
  28623.     algorithm is based on an approach that combines a large number of
  28624.     butterfly operations into one large process per processor.  The
  28625.     performance can be predicted from theory.  The actual algorithm has
  28626.     been implemented on a transputer array, and the performance of the
  28627.     implementation has been measured for various sizes of the complex
  28628.     input vector.  It is shown that the algorithm scales linearly with the
  28629.     number of transputers and the problem size."
  28630.  
  28631. /parallel/papers/twente/linxback.ps.Z
  28632.     "The Twente LINX backplane" by M.H. Schwirtz, K.C.J. Wijbrans,
  28633.     A.W.P. Bakkers, E.P. Hoogzaad and R.Bruis of the Mechatronics
  28634.     Research Centre Twente and Control Laboratory, Department of Electrical
  28635.     Engineering, University of Twente, Netherlands.
  28636.     ABSTRACT:
  28637.     "The design of a control system is not finished with the derivation of
  28638.     the necessary control algorithms.  When the controller is implemented
  28639.     in a digital computer, the system designed has to schedule all control
  28640.     and calculation tasks within the sampling interval of the system.
  28641.     Higher sampling frequencies often improve system performance.  On the
  28642.     other hand, more sophisticated control algorthims require more
  28643.     computing time thus reducing the obtainable sampling frequencies.
  28644.     Therefore, it is important to minimise the overhead of sampling and
  28645.     communications.  This paper describes a transputer-baseed I/O system
  28646.     fulfilling this requirement and shows how the sampling with this
  28647.     system is done."
  28648.  
  28649. /parallel/papers/twente/pga-kernel.ps.Z
  28650.     "Post-Game Analysis on Transputers - Development of a Measurement
  28651.     Kernel" by J.P.E Sunter, E.C. Koenders and A.W.P. Bakkers, Mechatronics
  28652.     Research Centre Twente and Control Laboratory, Department of Electrical
  28653.     Engineering, University of Twente, Enschede, Netherlands.
  28654.     ABSTRACT:
  28655.     "Int this paper Post-game analysis, a method for alloation of processes
  28656.     on an arbitrary network of processors, is investigated.  Contrary to
  28657.     other methods, this method is not based on a-prior information.  To
  28658.     generate allocations it uses heuristics and measurements obtained
  28659.     during program execution using a previous allocation.  This has the
  28660.     advantage that it is not influenced by inaccuracies in a-priori
  28661.     information.  This methods needs a few iterations to come to a good
  28662.     allocation.  If the number of iterations is small, this method is a
  28663.     good repalcement for the computationally intensive deterministic
  28664.     methods".
  28665.  
  28666. /parallel/papers/twente/pga-performance.ps.Z
  28667.     "Performance of Post-Game Analysis on Transputers" by J.P.E. Sunter
  28668.     and A.W.P. Bakkers, Mechatronics Research Centre Twente and Control
  28669.     Laboratory, Department of Electrical Engineering, University of Twente,
  28670.     Enschede, Netherlands.
  28671.     ABSTRACT:
  28672.     "In this paper the performance of a Post-Game Analysis system is
  28673.     studied.  For this purpose several simple cases have been designed.
  28674.     These consist of a number of processes which have to be distributed
  28675.     over a network of transputers. The final distributions for these
  28676.     cases are compared to the optimal nes, which can be easily derived
  28677.     for these simple cases.  Performance measures consider include the
  28678.     number of iterations required to reach the final distribution, and
  28679.     the overhead caused by monitoring the program behaviour."
  28680.  
  28681. /parallel/papers/twente/prio-sched.ps.Z
  28682.     "Cooperative Priority Scheduling in Occam" by J.P.E. Sunter,
  28683.     K.C.J. Wijbrans and A.W.P. Bakkers, Mechatronics Research Centre
  28684.     Twente, Electrical Engineering Department, University of Twente,
  28685.     Enschede, Netherlands.
  28686.     ABSTRACT:
  28687.     "In this paper a scheduler for variable priority scheduling is
  28688.     presented.  This scheduler assumes that the processes being
  28689.     scheduled cooperate with the scheduler.  This cooperation introduces
  28690.     some latencey in the scheduling of the processes.  Analytic
  28691.     experssions describing the effect of this latency are dervied.  A
  28692.     variable priority scheduler was implemented and results from actual
  28693.     program executions are given.  This results show that the scheduler
  28694.     can be used to schedule algorithms with simple sequential processes
  28695.     with sample frequencies not higher than 2 kHz."
  28696.  
  28697. /parallel/papers/twente/virtual.ps.Z
  28698.     "Virtual Channel Generator - VCG" by Johan P.E. Sunter and
  28699.     A.W.P. Bakkers, Mechatronics Research Centre Twente,
  28700.     University of Twente, Enschede, Netherlands.
  28701.     ABSTRACT:
  28702.     "This paper deals with a novel way of implementing
  28703.     communication layers for transputer networks. In the past, the
  28704.     limitation of the number of links of a transputer to four has
  28705.     led to the development of many network layers and operating
  28706.     system kernels that provide topology independent routing.
  28707.     Programming multitransputer systems is facilitated this way, by
  28708.     providing a transparent communications service through kernel
  28709.     calls or special communication channels. Because these layers
  28710.     are designed as operating systems or library functions, the
  28711.     complete layer is always added to the transputer system. Thus
  28712.     the layers introduce considerable overhead for applications
  28713.     using irregularly sized data transfer, a high
  28714.     communication/computation ratio or large packet sizes.
  28715.     Especially for real-time applications this is not acceptable.
  28716.     This paper describes a different approach that combines
  28717.     design-time flexibility with run-time efficiency. Instead of
  28718.     always adding the same general purpose kernel for the provision
  28719.     of a transparent communications service, a dedicated kernel is
  28720.     generated for each transputer.  This is possible, because a-priori
  28721.     knowledge can be extracted at compile time from the application
  28722.     processes that are loaded onto each transputer.  This knowledged
  28723.     consists of the communication size on the channels and of the the
  28724.     toplogy of the application process.  The network generator, the
  28725.     Virtual Channel Generator (VCG), is sufficiently smart to recognize
  28726.     situations in which it is not necessary to add network processes.
  28727.     As a result, the network layer is optimially adapted to the
  28728.     requirements of the specfic application."
  28729.  
  28730. /parallel/papers/twente/while-sched.ps.Z
  28731.     "List Scheduling While Loops on Transputers" by Johan P.E. Sunter and
  28732.     A.W.P. Bakkers, Mechatronics Research Centre Twente,
  28733.     University of Twente, Enschede, Netherlands.
  28734.     ABSTRACT:
  28735.     "List scheduling is a well known tool for scheduling sequential
  28736.     programs on parallel machines.  However, these sequential programs are
  28737.     not allowed to contain loops.  In this paper this restriction is
  28738.     removed.  A list scheduler is presented which allows the sequential
  28739.     programs to contain nested while loops."
  28740.  
  28741. /parallel/conferences/wotug17
  28742.     Call for papers for the 17th World occam and Transputer User Group
  28743.     (WoTUG) Technical Meeting being held from 11th-13th April 1994 at
  28744.     the University of Bristol, UK.    Deadlines:  Extended abstracts:
  28745.     11th November 1993;  Notification: Mid December 1993;  Camera ready
  28746.     copy: 10th January 1994.
  28747.  
  28748. 2nd November 1993
  28749. OTHER HIGHLIGHTS
  28750. ~~~~~~~~~~~~~~~~
  28751.  
  28752.   * occam 3 REFERENCE MANUAL (draft)
  28753.     /parallel/documents/occam/manual3.ps.Z
  28754.  
  28755.       By Geoff Barrett of INMOS - freely distributable but copyrighted by
  28756.       INMOS and is a full 203 page book in the same style of the Prentice
  28757.       Hall occam 2 reference manual.  Thanks a lot to Geoff and INMOS for
  28758.       releasing this.
  28759.  
  28760.   * TRANSPUTER COMMUNICATIONS (WoTUG JOURNAL) FILES
  28761.     /parallel/journals/Wiley/trcom/example1.tex
  28762.     /parallel/journals/Wiley/trcom/example2.tex
  28763.     /parallel/journals/Wiley/trcom/trcom.bst
  28764.     /parallel/journals/Wiley/trcom/trcom01.sty
  28765.     /parallel/journals/Wiley/trcom/trcom02.sty
  28766.     /parallel/journals/Wiley/trcom/trcom02a.sty
  28767.     /parallel/journals/Wiley/trcom/transputer-communications.cfp
  28768.     /parallel/journals/Wiley/trcom/Index
  28769.     /parallel/journals/Wiley/trcom/epsfig.sty
  28770.  
  28771.       LaTeX (.sty) and BibTeX (.bst) style files and examples of use for
  28772.       the forthcoming Wiley journal - Transputer Communications,
  28773.       organised by the World occam and Transputer User Group (WoTUG).
  28774.       See transputer-communications.cfp for details on how to submit a paper.
  28775.  
  28776.   * FOLDING EDITORS: origami, folding micro emacs
  28777.     /parallel/software/folding-editors/fue-original.tar.Z
  28778.     /parallel/software/folding-editors/fue-ukc.tar.Z
  28779.     /parallel/software/folding-editors/origami.zip
  28780.     /parallel/software/folding-editors/origami.tar.Z
  28781.  
  28782.       Two folding editors - origami and folding micro-emacs traditionally
  28783.       used for occam programming environments due to the indenting rules.
  28784.       Origami is an updated version of the folding editor distribution
  28785.       as improved by Johan Sunter of Twente, Netherlands.  fue* are the
  28786.       original and UKC improved versions of folding micro-emacs.
  28787.  
  28788.   * T9000 SYSTEMS WORKSHOP REPORTS
  28789.     /parallel/reports/wotug/T9000-systems-workshop/*
  28790.  
  28791.       The reports from the T9000 Systems Workshop held at the
  28792.       University of Kent at Canterbury in October 1992.  It
  28793.       contains ASCII versions of the slides given then with the
  28794.       permission of the speakers from INMOS.  Thanks to Peter
  28795.       Thompson and Roger Shepherd for this.
  28796.       Subjects explained include the communications architecture
  28797.       and low-level communications, the processor pipeline and
  28798.       grouper, the memory system and how errors are handled.
  28799.  
  28800.   * THE PETER WELCH PAPERS
  28801.     /parallel/papers/ukc/peter-welch
  28802.       Eleven papers by Professor Peter Welch and others of the
  28803.       Parallel Processing Group at the Computing Laboratory,
  28804.       University of Kent at Canterbury, England related to occam,
  28805.       the Transputer and other things.  Peter is Chairman of the
  28806.       World occam and Transputer User Group (WoTUG)
  28807.  
  28808.   * ISERVERS
  28809.     /parallel/software/inmos/iservers
  28810.       Many versions of the iserver- the normal version, one for
  28811.       Windows (WIserver), one for etherneted PCs (PCServer) and one
  28812.       for Meiko hardware.
  28813.  
  28814.   * MIRROR OF PARLIB
  28815.     /parallel/parlib
  28816.       Mirror of the PARLIB archive maintained by Steve Stevenson,
  28817.       the moderator of the USENET group comp.parallel.
  28818.  
  28819.   * UKC REPORTS
  28820.     /pub/misc/ukc.reports
  28821.       The internal reports of the University of Kent at Canterbury
  28822.       Computing Laboratory.  Many of these contain parallel computing
  28823.       research.
  28824.  
  28825.   * NETLIB FILES
  28826.     /netlib/p4
  28827.     /netlib/pvm
  28828.     /netlib/pvm3
  28829.     /netlib/picl
  28830.     /netlib/paragraph
  28831.     /netlib/maspar
  28832.       As part of the general unix.hensa.ac.uk archive, there is a full
  28833.       mirror of the netlib files for the above packages (and the others
  28834.       too).
  28835.  
  28836. Approved: parallel@hubcap.clemson.edu
  28837. Follow-up: comp.parallel
  28838. Path: bounce-back
  28839. Newsgroups: comp.parallel
  28840. From: dmj@comlab.ox.ac.uk (David Jackson)
  28841. Subject: Refinement Checking Tool for CSP Available
  28842. Organization: Oxford University Computing Laboratory, UK
  28843.  
  28844. Formal Systems (Europe) is pleased to announce the availaility of academic
  28845. licences for its FDR refinement checking tool. The academic release is made
  28846. possible by support from the US ONR. The distribution is available to
  28847. educational institutions for a nominal media charge -- Formal Systems makes no
  28848. profit from this release.
  28849.  
  28850. The latest version (FDR 1.3) is now available. New features include
  28851.  
  28852.        X-windows interactive interface support
  28853.        Support for off-line and remote refinement checks
  28854.        Improved type-checker and parser
  28855.        More extensive debugging information
  28856.  
  28857. Existing FDR users can obtain updates via FTP from the address given below,
  28858. which can be used in conjunction with their existing LICENCE files.
  28859.  
  28860.  
  28861.  
  28862.           A N N O U N C I N G     F D R
  28863.                   =============================
  28864.  
  28865.  
  28866.  
  28867. FDR (standing for Failures Divergence Refinement) is a tool for
  28868. proving properties of CSP programs.  It is a product of Formal
  28869. Systems (Europe) Ltd.
  28870.  
  28871. It deals with a flexible syntax based on the CSP notation
  28872. presented in Hoare's text.  Support is also provided for handling
  28873. the numbers, sets, sequences, etc, frequently used in processes'
  28874. states and data-components of events.
  28875.  
  28876. Developed for industrial applications, for example at Inmos where
  28877. it is used to develop and verify communications hardware, it is
  28878. now made available at nominal cost to academic institutions
  28879. thanks to support from the US Office of Naval Research (ONR).
  28880.  
  28881. FDR brings CSP to life for teaching, and provides an excellent
  28882. tool for developing, debugging and finally proving programs
  28883. written in it.  It is supplied with a library of commented
  28884. examples, including the dining philosophers, a train set, a
  28885. voting system, and several communication protocols including the
  28886. alternating bit and sliding window protocols.
  28887.  
  28888. These examples are currently available by anonymous FTP, to
  28889. enable potential users to see a sample of what FDR can do.  A
  28890. copy of the FDR manual, which contains a description of the
  28891. syntax supported, can be obtained in the same way.
  28892.  
  28893.  
  28894. Obtaining Information About FDR
  28895. ===============================
  28896.  
  28897. Information about the FDR system, including up-to-date versions
  28898. of the manual, may be obtained via anonymous ftp from
  28899. "ftp.comlab.ox.ac.uk", IP number "192.76.25.2".  The files are
  28900. stored in "/pub/Packages/FDR/public.info/" (See the end of this
  28901. announcement for further details).
  28902.  
  28903. Comments, suggestions, and questions about FDR should be addressed
  28904. to "fdr-request@comlab.ox.ac.uk"
  28905.  
  28906.  
  28907. Technical Details
  28908. =================
  28909.  
  28910. The theory of refinement in CSP allows most correctness
  28911. conditions (safety and liveness, but not fairness in the current
  28912. version) to be encoded as the most nondeterministic process
  28913. satisfying them.  We can test whether an implementation meets the
  28914. specification by deciding if it refines the specification
  28915. process.  FDR is therefore built around this decision question.
  28916.  
  28917. It implements a normalisation procedure for the specification
  28918. process, which represents the specification in a form where the
  28919. implementation can be checked against it by model-checking
  28920. techniques (exploring reachable states).  Both the specification
  28921. and the implementation must therefore be finite-state processes.
  28922.  
  28923. The theoretical result that the normal form of a CSP process can
  28924. be exponential in the number of states in the input has never
  28925. proved problematic except in deliberately created pathological
  28926. examples.  In the majority of cases, checking is linear in the
  28927. number of states in the operational semantics of the
  28928. implementation.
  28929.  
  28930. The system is currently built as a Standard ML program, which
  28931. calls routines in C to perform the normalisation and
  28932. model-checking functions.
  28933.  
  28934.               *  *  *  *  *  *  *  *  *  *  *  *  *
  28935.  
  28936. The size of problem it can deal with depends on the amount of
  28937. memory (both physical and swap) available on the machine you are
  28938. using.  It is able to make effective use of virtual memory in the
  28939. model checking phase, making the number of states dealt with
  28940. proportional to this.  A few timings are given below based on a
  28941. Sparc2 with 32Mb of physical memory and approximately 75Mb of
  28942. swap space.  They are all based on the example files, as
  28943. indicated.
  28944.  
  28945. File     Spec      Imp     States Setup  Check1(e/cpu)  Check2Quick
  28946.  
  28947. phils     DF     BSYSTEM     5151   35     30/20         9/7
  28948.  
  28949. trains   RLIVE   RSYSTEM     4260   25     20/14         7/4
  28950.  
  28951. swp1      SPEC    SYSTEM    20480  230    121/113       12/11
  28952.  
  28953. swp2     OSPEC      DC     117888  300  21m35s/21m8s   210/204
  28954.  
  28955. swp2      SPEC     SYSTEM  919680  300     ****        29m/28m11s
  28956.  
  28957.  
  28958. "File" is the example file from which the problem is taken.
  28959.  
  28960. "Spec" and "Imp" are the processes from those files checked.
  28961.  
  28962. "States" is the number of states visited in the model-checking phase.
  28963.  
  28964. "Setup" is the approximate elapsed time taken by the SML front end
  28965.       to convert the already-parsed CSP programs
  28966.       into the compiled form used by the refinement checking programs.
  28967.       This time depends on the sum of the number of states in the
  28968.       low-level component processes that make up the specification and
  28969.       implemententation, and also the complexity of their definitions.
  28970.  
  28971.       If multiple use is made of definitions during a session, the caching
  28972.       of FDR allows much of this time to be saved for checks after the
  28973.       first.
  28974.  
  28975. "Check1" gives the elapsed time for the rest of the refinement process, and
  28976.       cpu time for the model-checking phase, using one version of the
  28977.       refinement checker -- one which performs an explicit divergence
  28978.       check.
  28979.  
  28980. "Check2Quick" gives the corresponding times for a version of the checker
  28981.       that does not test for divergence in the implementation, and therefore
  28982.       assumes absence of divergence.
  28983.  
  28984. All times given are in seconds except where indicated.
  28985.  
  28986. It can be seen that, for small problems, the setup phase tends to
  28987. dominate the processing time, whereas for problems with large
  28988. numbers of states it is the model-checking phase.
  28989.  
  28990.               *  *  *  *  *  *  *  *  *  *  *  *  *
  28991.  
  28992. A subsequent version of the system will support various
  28993. techniques for avoiding the explicit exploration of state spaces
  28994. (which typically grow exponentially with the number of processes
  28995. in a parallel system).  This will allow, for example, the
  28996. deadlock analysis of N dining philosophers in time linear in N,
  28997. rather than the current exponential time.
  28998.  
  28999.               *  *  *  *  *  *  *  *  *  *  *  *  *
  29000.  
  29001.  
  29002. Distribution and Support
  29003. ========================
  29004.  
  29005. The software currently runs only on SUN Sparc systems (and
  29006. clones), though alternative platforms are being investigated.
  29007. 16Mb of physical memory is required by the system, and its
  29008. performance will improve with more.  Systems running FDR should
  29009. have at least 60 Mb of virtual memory; those wishing to use it on
  29010. large problems more.
  29011.  
  29012. Formal Systems is planning to support other hardware (including PC-type
  29013. systems) and various operating systems. Possible platforms include:
  29014.  
  29015.   Intel 3/486 based systems running OS/2, Linux, or BSD386
  29016.   Apple Macintosh A/UX or Mach Ten systems
  29017.   IBM RS6000 AIX systems
  29018.  
  29019. If you are interested in these or any other developments, please contact
  29020. Formal Systems at the address below.
  29021.  
  29022. The system is available to bona fide educational institutions for
  29023. education and research use (i.e., non-profit) only for the
  29024. nominal price detailed below.  Formal Systems reserves the right
  29025. to refuse this offer to any party at its absolute discretion.  If
  29026. you are unsure whether your institution will qualify for this
  29027. offer, please write or FAX as indicated below with details.
  29028.  
  29029. The system may be used by an unlimited number of users from a
  29030. single installation at one site.  A licence file is supplied
  29031. which may not be copied except for backup, and which must be
  29032. present for the software to run.
  29033.  
  29034. This enables us to support the system by FTP: users will be
  29035. supplied with details of how to receive updated versions of FDR.
  29036. For the time being this service is supported by the ONR and free
  29037. to users under this academic release.
  29038.  
  29039. The software is supplied on 2 SUN `bar' format 3.5in disks, with
  29040. a further disk containing the licence.  An alternative to using
  29041. the `bar' disks is to load the system less licence via FTP, and
  29042. then install using only the licence disk.  The software is
  29043. available on DC6150 Tapes at additional cost.
  29044.  
  29045. One copy of the manual, which may be copied, is supplied with the
  29046. distribution, as are installation instructions.
  29047.  
  29048.                    *   *   *   *   *   *   *   *
  29049.  
  29050. To obtain your copy of the system, please print out the following
  29051. form, fill it in and post with cheque to
  29052.  
  29053.               Formal Systems (ref FDR)
  29054.               3 Alfred Street
  29055.               Oxford OX1 4EH
  29056.               UK
  29057.  
  29058. Enquiries from individuals or bodies who do not qualify under the
  29059. terms of this offer are welcome.  Please write to the above
  29060. address, send a FAX to [+44] (0)865 201114, or telephone [+44]
  29061. (0)865 728460 and ask for Dave Jackson or Michael Goldsmith.
  29062.  
  29063. --------8<------------8<------------8<------------8<------------8<--------
  29064.  
  29065. FDR Academic Licence: Application form
  29066. ======================================
  29067.  
  29068. Name of Institution:
  29069.  
  29070. Site where software to be used:
  29071.  
  29072. (above information will appear in licence)
  29073.  
  29074. Address for delivery:
  29075.  
  29076.  
  29077. Contact name/email address:
  29078.  
  29079.  
  29080.  
  29081. Distribution required:
  29082.  
  29083. Standard (bar disks):  200 pounds [ ]  or  400 US dollars  [ ]
  29084.  
  29085. DC6150 Tape :          250 pounds [ ]  or  500 US dollars  [ ]
  29086.  
  29087. VAT: Customers in the UK should add VAT at the prevailing rate.
  29088. A VAT invoice will be sent with the software.
  29089.  
  29090. Customers who are (i) within the European Community but outside
  29091. the UK and (ii) are ordering subsequent to 1 December 1992 should
  29092. either add VAT at the UK rate (17.5%) or provide their VAT
  29093. number.  The former will apply to customers who are not VAT
  29094. registered, and customers who are VAT registered should normally
  29095. do the second.  This is necessary because of the VAT regulations
  29096. connected with the Single European Market.
  29097.  
  29098. Cheque or International Money Order should be sent with order.
  29099.  
  29100. The price includes postage, but any customs or other dues payable
  29101. will be the responsibility of the purchaser.
  29102.  
  29103. --------8<------------8<------------8<------------8<------------8<--------
  29104.  
  29105. The above prices apply to academic institutions only, and use of
  29106. the software is limited to education and non-commercial research.
  29107. The licence issued will be non-transferrable.
  29108.  
  29109.  
  29110.  
  29111. Obtaining Information via Anonymous FTP
  29112. =======================================
  29113.  
  29114. Having called "ftp", you should proceed as follows:
  29115.  
  29116. ftp> open ftp.comlab.ox.ac.uk
  29117.  
  29118.   220-ftp.comlab.ox.ac.uk FTP server (Version 4.696 Tue Jun 9) ready.
  29119.   220 Anonymous retrieval login with userid: `anonymous';
  29120.   Name (ftp.comlab.ox.ac.uk:user):
  29121.  
  29122. enter "anonymous"
  29123.  
  29124.   331 Guest login ok, give your email address for password.
  29125.   Password:
  29126.  
  29127. enter your email address: e.g. "user@comlab.ox.ac.uk".
  29128.  
  29129.   230-Guest `user@comlab.ox.ac.uk' login ok, access restrictions apply.
  29130.   230-Local time is now Fri Oct 23 18:00:36 1992
  29131.   230-We have special access features, see file /README
  29132.   230 It was last updated Tue Sep 15 09:24:58 1992 - 38.4 days ago
  29133.  
  29134. ftp>
  29135.  
  29136. enter "bin" (in case you're picking up any binary files: e.g., *.dvi)
  29137.  
  29138.   200 Type set to I.
  29139.  
  29140. ftp>
  29141.  
  29142. enter "cd /pub/Packages/FDR/public.info/manual"
  29143.  
  29144.   250 CWD command successful.
  29145.  
  29146. ftp>
  29147.  
  29148. enter "mget *" and type "y" to receive each file
  29149.  
  29150.   mget manual.ps? y
  29151.   200 PORT command successful.
  29152.   150 Opening BINARY mode data connection for
  29153.                /pub/Packages/FDR/public.info/manual
  29154.   /manual.ps (492098 bytes).
  29155.   226 Transfer complete.
  29156.   local: manual.ps remote: manual.ps
  29157.   492098 bytes received in 3.6 seconds (1.3e+02 Kbytes/s)
  29158.  
  29159. ftp>
  29160.  
  29161. to get example files, you should then
  29162. enter "cd /pub/Packages/FDR/public.info/examples"
  29163.  
  29164. ftp>
  29165.  
  29166. 250 CWD command successful.
  29167.  
  29168. ftp>
  29169.  
  29170. enter "mget *"
  29171.  
  29172. mget 00.examples? y
  29173. 200 PORT command successful.
  29174. 150 Opening BINARY mode data connection for
  29175.       /pub/Packages/FDR/public.info/examples/00.examples (3229 bytes).
  29176. 226 Transfer complete.
  29177. local: 00.examples remote: 00.examples
  29178. 3229 bytes received in 0.37 seconds (8.6 Kbytes/s)
  29179. mget abp.csp? y
  29180. 200 PORT command successful.
  29181.  
  29182. ... etc.
  29183.  
  29184. ftp> quit
  29185.  
  29186.  
  29187. Problems with FTP?
  29188. ==================
  29189.  
  29190. Note that if the server fails to recognise your address, the following message
  29191. will be displayed:
  29192.  
  29193.   230-Guest `no_such_user@mars' login ok, access restrictions apply.
  29194.   230-Hmm.. You didn't give your complete email address for password,
  29195.      -      Please, next time give your Internet email address.
  29196.      -      Example:  Example.Name@pierrot.comlab.ox.ac.uk
  29197.   230-Local time is now Fri Oct 23 18:19:54 1992
  29198.      -Your IP number didn't reverse,
  29199.                        and/or password wasn't ok as email address.
  29200.      -Read /CAPTIVE-README for further information!
  29201.   230-We have special access features, see file /README
  29202.   230 It was last updated Tue Sep 15 09:24:58 1992 - 38.4 days ago
  29203.  
  29204. and you will unable to retrieve files.  Should this occur, close the
  29205. connection by typing "close" and try again.
  29206.  
  29207.  
  29208. ============================================================================
  29209. E-mail facilities of the University of Oxford used by their courtesy.
  29210. Trademarks are acknowledged as the property of their respective owners.
  29211. -- 
  29212. David M. Jackson - Research Student - Oxford Univ. Programming Research Group
  29213. David.Jackson@prg.ox.ac.uk       11 Keble Rd, Oxford, UK.  Tel.+44-865-273846
  29214.  
  29215. Approved: parallel@hubcap.clemson.edu
  29216. Follow-up: comp.parallel
  29217. Path: bounce-back
  29218. Newsgroups: comp.parallel
  29219. From: jabf@festival.ed.ac.uk (J Blair-Fish)
  29220. Subject: APPLICATIONS OF PARALLEL PROCESSING IN GEOSCIENCE
  29221. Message-ID: <CGDw5u.HA9@festival.ed.ac.uk>
  29222. Organization: Edinburgh University
  29223. Date: Fri, 12 Nov 1993 14:56:17 GMT
  29224.  
  29225.  
  29226.  
  29227.              EUROPEAN GEOPHYSICAL SOCIETY
  29228.  
  29229.                 XIX GENERAL ASSEMBLY
  29230.  
  29231.               GRENOBLE, 25-29 APRIL 1994
  29232.  
  29233.  
  29234. ****************  CALL FOR PAPERS  *******************
  29235.  
  29236. Society Symposium:  Session  EGS2
  29237.  
  29238. Title:  APPLICATIONS OF PARALLEL PROCESSING IN GEOSCIENCE
  29239.  
  29240.  
  29241. This session encourages presentations of applications of any aspect of
  29242. parallel processing covering the disciplines in EGS.  Hardware
  29243. configurations may range from for example a few interconnected
  29244. workstations to massively parallel dedicated machines.  The aim is
  29245. cross fertilisation of ideas and techniques involving the use,
  29246. benefits and pitfalls of parallelisation for problem-solving and may
  29247. include consideration of the relative merits of porting existing code or
  29248. writing anew.        
  29249.  
  29250. For further details (e.g.  Young Scientist and East European Awards,
  29251. registration details etc) contact the Convener:-
  29252.  
  29253. Dr. B.A.Hobbs
  29254. Department of Geology and Geophysics
  29255. University of Edinburgh
  29256. West Mains Road
  29257. Edinburgh EH9 3JW
  29258. UK
  29259.  
  29260. Tel:    (44)-31-650-4906
  29261. Fax:    (44)-31-668-3184
  29262. email:   bah@uk.ac.ed.castle
  29263.  
  29264. ******  DEADLINE FOR RECEIPT OF ABSTRACTS   1 JANUARY 1994  ********
  29265.  
  29266. DEADLINE FOR YOUNG SCIENTIST AND EAST EUROPEAN AWARDS - 15 DECEMBER 1993
  29267. ************************************************************************
  29268.  
  29269.  
  29270.  
  29271. -- 
  29272.  
  29273.  
  29274.  
  29275.  
  29276. Approved: parallel@hubcap.clemson.edu
  29277. Follow-up: comp.parallel
  29278. Path: bounce-back
  29279. Newsgroups: comp.parallel
  29280. From: dbader@eng.umd.edu (David Bader)
  29281. Subject: Re: Need introductory parallel programming book
  29282. Organization: Professional Student, University of Maryland, College Park
  29283. References: <1993Nov11.213044.26194@hubcap.clemson.edu>
  29284. Nntp-Posting-Host: coke.eng.umd.edu
  29285. Originator: dbader@coke.eng.umd.edu
  29286.  
  29287.  
  29288. In article <1993Nov11.213044.26194@hubcap.clemson.edu>, cychong@magnus.acs.ohio-state.edu (Robert Chong) writes:
  29289. >
  29290. >    Can anyone suggest an introductory and language independent 
  29291. >book which can teach me to write parallel programs/algorithms?
  29292.  
  29293. I highly recommend these texts as an introduction to parallel algorithms:
  29294.  
  29295. @book{JaJa,
  29296.    author = {Joseph~J\'{a}J\'{a}},  
  29297.    address = {New York},
  29298.    publisher = {Addison-Wesley Publishing Company},
  29299.    title = {{An Introduction to Parallel Algorithms}},
  29300.    year = {1992}
  29301. }
  29302.  
  29303. @book{Akl,
  29304.    author = {Selim G. Akl},
  29305.    address = {Englewood Cliffs, NJ},
  29306.    publisher = {Prentice-Hall},
  29307.    title = {The Design and Analysis of Parallel Algorithms},
  29308.    year = {1989}
  29309. }
  29310.  
  29311. @book{Quinn,
  29312.    author = {Michael J. Quinn},
  29313.    address = {New York},
  29314.    publisher = {McGraw-Hill},
  29315.    title = {Designing Efficient Algorithms for Parallel Computers},
  29316.    year = {1987}
  29317. }
  29318.  
  29319.  
  29320. -david
  29321.  
  29322. David A. Bader 
  29323. Electrical Engineering Department
  29324. A.V. Williams Building
  29325. University of Maryland
  29326. College Park, MD 20742
  29327. 301-405-6755   
  29328.  
  29329. Internet: dbader@eng.umd.edu
  29330.  
  29331.  
  29332. Approved: parallel@hubcap.clemson.edu
  29333. Follow-up: comp.parallel
  29334. Path: bounce-back
  29335. Newsgroups: comp.parallel
  29336. From: yali@ecn.purdue.edu (Yan Alexander Li)
  29337. Subject: nCUBE tflop machine
  29338. Sender: news@ecn.purdue.edu (USENET news)
  29339. Organization: Purdue University Engineering Computer Network
  29340.  
  29341. I was told that nCUBE announced a tera FLOP machine due in a couple years.
  29342. Does anyone have more information on this?
  29343.  
  29344. Thanks,
  29345.  
  29346. Alex Li
  29347. Graduate Assistant
  29348. 1285 Electrical Engineering
  29349. Purdue University
  29350. West Lafayette, IN 47907
  29351.  
  29352. Approved: parallel@hubcap.clemson.edu
  29353. Follow-up: comp.parallel
  29354. Path: bounce-back
  29355. Newsgroups: comp.parallel
  29356. From: rlarowe@chpc.org (Rick LaRowe)
  29357. Subject: Technical Report on Galactica Net
  29358. Organization: Center For High Perf. Computing of WPI; Marlboro Ma
  29359. Date: Fri, 12 Nov 1993 20:10:52 GMT
  29360. Apparently-To: comp-parallel@uunet.uu.net
  29361.  
  29362.  
  29363. Announcing the availability of the following technical report:
  29364.  
  29365.               Update Propagation in the Galactica Net 
  29366.                Distributed Shared Memory Architecture
  29367.  
  29368.           A. Wilson, R. LaRowe, R. Ionta, 
  29369.         R. Valentino, B. Hu, P. Breton, and P. Lau
  29370.  
  29371.              CHPC TR 93-007
  29372.  
  29373.                  Abstract
  29374.  
  29375.       Galactica Net employs a unique approach to supporting 
  29376.       shared memory coherence in a distributed computing system. 
  29377.       The approach is based upon the use of operating system 
  29378.       software for the complex management of sharing information,
  29379.       but provides hardware support for the mnost important 
  29380.       coherence operations.  The goal is to delegate as much of
  29381.       the complexity to software as possible, while still 
  29382.       exploiting hardware to ensure high performance.  In this 
  29383.       paper, we describe the Galactica Net update-based coherence 
  29384.       protocol and the hardware required to implement that 
  29385.       protocol.  We also present basic performance data obtained 
  29386.       through detailed hardware simulations.
  29387.  
  29388. The report is available via anonymous ftp from chpc.chpc.org, in the directory 
  29389. pub/gnet.  The report is available as a compressed postscript file called 
  29390. gnet_updates.ps.Z.
  29391.  
  29392. Rick LaRowe
  29393. --
  29394. Center for High Performance Computing       internet: rlarowe@chpc.org
  29395. Worcester Polytechnic Institute                       rlarowe@wpi.edu
  29396. Suite 170                           phone: (508) 624-7400 x610
  29397. Marlborough, MA 01752                      (508) 624-6354 (fax)
  29398.  
  29399.  
  29400.  
  29401.  
  29402. Approved: parallel@hubcap.clemson.edu
  29403. Follow-up: comp.parallel
  29404. Path: bounce-back
  29405. Newsgroups: comp.parallel
  29406. From: bottac@rpi.edu (Carlo L Bottasso)
  29407. Subject: GMRES
  29408. Date: 12 Nov 1993 20:38:45 GMT
  29409. Organization: Rensselaer Polytechnic Institute, Troy, NY.
  29410. Reply-To: bottac@rpi.edu
  29411. Nntp-Posting-Host: rebecca.its.rpi.edu
  29412. Keywords: GMRES, parallel, message passing
  29413.  
  29414.  
  29415.  I am looking for a parallel GMRES subroutine based on message passing.
  29416.  Can you tell me if such a subroutine is available ?
  29417.  It should be used on an IBM SP1 for a CFD finite element program.
  29418.  If you have any information, please let me know.
  29419.  
  29420.                                                 Carlo L. Bottasso
  29421.  
  29422.  
  29423.  
  29424.  
  29425. Approved: parallel@hubcap.clemson.edu
  29426. Follow-up: comp.parallel
  29427. Path: bounce-back
  29428. Newsgroups: comp.parallel
  29429. From: krishnan@cs.concordia.ca (RADHAKRISHNAN t.)
  29430. Subject: Call For Papers
  29431. Message-ID: <CGEExu.D0s@newsflash.concordia.ca>
  29432. Sender: usenet@newsflash.concordia.ca (USENET News System)
  29433. Nntp-Posting-Host: lily.cs.concordia.ca
  29434. Organization: Computer Science, Concordia University, Montreal, Quebec
  29435. Date: Fri, 12 Nov 1993 21:41:54 GMT
  29436.  
  29437.  
  29438.  
  29439.       ANNOUNCEMENT   AND  CALL FOR PAPERS 
  29440.            INTERNATIONAL CONFERENCE 
  29441.               ON 
  29442.         COMPUTER SYSTEMS AND EDUCATION
  29443.             22 June 1994 -  25  June 1994
  29444.  
  29445.            Indian Institute of Science
  29446.               Bangalore 560 012
  29447.  
  29448.  
  29449.  
  29450. Prof.V.Rajaraman is widely recognized as a pioneer of  Computer Education in India.
  29451. An eminent educationist and researcher, he is an author of  over thirteen popular 
  29452. computer science textbooks. Prof. Rajaraman has been responsible for initiating and 
  29453. nurturing several academic programmes in computer science, setting up advanced 
  29454. computing facilities in several institutions, and has made significant contributions 
  29455. towards the formulation of  national policies on computers, electronics and education.
  29456.  
  29457. This International Conference is being organized in honor of Prof.V.Rajaraman on the
  29458. eve of his retirement from the Indian Institute of Science, Bangalore,
  29459. with the cooperation and participation of several noted researchers from many countries.
  29460. It will be held at the Indian Institute of Science, Bangalore, India.
  29461.  
  29462.  
  29463.  The two day  conference  consists of key note talks and contributed research papers 
  29464. followed by a one-day Workshop wherein researchers attending the conference shall 
  29465. present the state of art research in their areas of work related to the theme of the 
  29466. conference. Four half-day pre-conference tutorials will be held on 22nd June.
  29467.  
  29468. This conference is being sponsored by the Bangalore section of IEEE and CSI as well
  29469. as other Institutions.
  29470.  
  29471.  
  29472. Conference Theme
  29473.  
  29474.      The conference theme broadly covers high performance computer  architectures
  29475. and their software environments, Information systems and Computer Science Education.
  29476. Topics for submission of original papers include, but are not limited to:
  29477.  
  29478.      - High Performance  Parallel and Distributed Computing.
  29479.      - Knowledge Based Systems.
  29480.      - Information Systems.
  29481.      - Computer Aided Design for VLSI.
  29482.      - Supercomputing and Scientific Visualization.
  29483.      - Computer Science Education.
  29484.  
  29485.  
  29486. Submission Details
  29487.  
  29488.      Interested researchers and scientists  are invited to submit papers of  their 
  29489. original research, not exceeding  twelve (12) A4 size pages in  11pt double spaced 
  29490. two-column format  using either LaTeX or  Wordstar (Version 4). LaTeX header files 
  29491. are available on request.  The submission should have  clear details of research 
  29492. contributions to the field. Please send four (4) copies to one of the contact 
  29493. addresses given below.
  29494.  
  29495.     The submissions will be reviewed and the selected papers will be included   
  29496. in the conference proceedings. The selected (and revised) papers  have to be submitted 
  29497. both in print as well as in source form (in a DOS or Unix formatted floppy or by email).
  29498. The proceedings  will be brought out through  a reputed  publisher and  will be 
  29499. distributed during the conference.
  29500.  
  29501.  
  29502. Submission Deadlines
  29503.  
  29504. Full  Papers Due:           February 1, 1994
  29505. Acceptance Notification:    March 1 1994
  29506. Camera Ready Papers Due:    May 1, 1994 
  29507.  
  29508.  
  29509. Pre-conference Tutorials
  29510.  
  29511. Four half-day  pre-conference tutorials on the theme areas  of the conference will be 
  29512. held on the 22nd June,'94 in two parallel sessions. Details will be announced later. 
  29513. Researchers desirous of offering tutorials in the theme areas of the conference are 
  29514. invited to contact  Prof.N.Balakrishnan before November 30, '93 with their detailed 
  29515. proposals.
  29516.  
  29517.  
  29518. Registration
  29519.  
  29520. All Indian participants will pay a registration fee of Rs 1000 for the 
  29521. conference and Rs 500 for the subsequent workshop. All foreign participants will pay a 
  29522. registration fee of US $50 for the conference and US $25 for the workshop. 
  29523. All students will get a 50% discount in the registration fee. Registration fee for 
  29524. each tutorial is Rs 300 (or US $20 for the foreign participants). 
  29525.  
  29526.  
  29527. Registration closes on April 30, 1994.  The registration fee can be paid  through  a 
  29528. cheque (or demand draft) drawn in favour of "Chairman, Organizing Committee,  
  29529. ICCSE, Bangalore 560 012, India" and  mailed to one of the contact addresses. 
  29530. The registration form is enclosed.
  29531.  
  29532.  
  29533. Contact Addresses
  29534.  
  29535. Send the full papers as well as for further details contact either one of:
  29536.  
  29537.  
  29538.       T.Radhakrishnan   
  29539.       Computer Science Dept. 
  29540.       Concordia University  
  29541.       1455 De Maisonneuve  
  29542.       Montreal, CANADA  H3G 1M8    
  29543.       Email: krishnan@cs.concordia.ca
  29544.       Fax: 514 848 2830
  29545.       Tel:  514 848 3019 
  29546.  
  29547. OR
  29548.  
  29549.  
  29550.       N.Balakrishnan                         
  29551.       Supercomputer Education & Research Centre      
  29552.       Indian Institute of Science                  
  29553.       Bangalore - 560 012                        
  29554.       INDIA 
  29555.       Email: shikshak@vidya.iisc.ernet.in
  29556.       Fax: 00 91 80 346 648
  29557.       Tel: 00 91 80 346 325
  29558.  
  29559.  
  29560. Program Committee
  29561.  
  29562.  T.Radhakrishnan, Concordia University, Canada (Chairman)
  29563.  Aggarwala,T., IBM, Austin, Texas
  29564.  Arvind, MIT, USA
  29565.  Ananda, A. L., National University, Singapore
  29566.  Bhat,P.C.P., McGill University  
  29567.  Biswas, S., IIT Kanpur
  29568.  Bode, A.,Tech. University Munich
  29569.  Burhart,H., University of Basel, Switzerland
  29570.  Chandrashekar, M., University of Waterlloo, Canada
  29571.  Chandra,A., IBM, New York
  29572.  Ganapathy,S., AT&T, New Jersey
  29573.  Gairola, B.K., DOE, New Delhi
  29574.  Govindarajalu,R., REC Warangal, AP
  29575.  Goyal,P., Automation Corporation, Mass, USA
  29576.  Gupta,R.K., Cray Research, Wisconsin, USA
  29577.  Ibramsha,M., Crescent Engg College, Madras
  29578.  Jayaraj,C., S.R.Steel, Bombay
  29579.  Kapoor,D., SUNY, Albany, USA
  29580.  Krishnamoorthy,M.S., RPI, New York
  29581.  Lindstrom,G., University Utah
  29582.  Marwadel,P., University of Dartmund, Germany
  29583.  Misra,J., University of Texas, Austin
  29584.  Moona, R., IIT Kanpur 
  29585.  Nori, K.V., TRDDC, Poona
  29586.  Om Vikas, Indian Embassy, Tokyo, Japan
  29587.  Perrot,R., University of Belfast, U.K.
  29588.  Rao,P. R. K., IIT Kanpur
  29589.  Sahni,S., University of Central Florida, USA
  29590.  Sahasrabuddhe,H. V., University of Poona
  29591.  Sankar,S., Stanford University, USA
  29592.  Sivaramamoorthy,C., IIT Madras
  29593.  Sivakumar,M., PES Engg College, Mandya, Karnataka
  29594.  Srinivasan,B., University of Monash, Australia
  29595.  Srivastava,J., University of Minnesota, USA
  29596.  Vaishnavi,V.K., Georgia Tech, USA
  29597.    
  29598.  
  29599.  
  29600. Organizing Committee
  29601.  
  29602.  N. Balakrishnan, SERC, IISc (Chairman) 
  29603.  Muthukrishnan, C.R., IIT Madras (Co-Chairman) 
  29604.  
  29605.  Khincha,H.P.,  IEEE, (Bangalore) 
  29606.  Rao,N.J., CEDT, IISc
  29607.  Reddy,V.U.,  ECE, IISc 
  29608.  Sonde,B.S.,  ECE, IISc
  29609.  Srinivasan,R., CSI (Bangalore) 
  29610.  Venkatesh,Y.V.,  EE, IISc
  29611.  Viswanatham,N.,  CSA, IISc
  29612.  
  29613.  
  29614. Treasurers
  29615.  
  29616.  D.Sampath, SERC, IISc.
  29617.  T.B.Rajasekhar, NCSI, IISc.
  29618.  
  29619.  
  29620. Tutorials
  29621.  
  29622.  H.Krishnamurthy, SERC, IISc.
  29623.  
  29624.  
  29625. Publicity 
  29626.  
  29627.  R.Krishnamurthy, SERC, IISc.  
  29628.  
  29629.  
  29630. Registration
  29631.  
  29632.  S.Sundaram, SERC, IISc. 
  29633.  
  29634. Panels
  29635.  
  29636.  T.S.Mohan, SERC, IISc.
  29637.  
  29638.  
  29639.  
  29640. Approved: parallel@hubcap.clemson.edu
  29641. Follow-up: comp.parallel
  29642. Path: bounce-back
  29643. Newsgroups: comp.parallel
  29644. From: stsai@scws1.harvard.edu (Shun-Chang Tsai)
  29645. Subject: Re: The Future of Parallel Computing
  29646. Organization: Harvard University, Cambridge, Massachusetts
  29647. References: <1993Nov11.142504.9124@hubcap.clemson.edu>
  29648. Nntp-Posting-Host: scws1.harvard.edu
  29649.  
  29650.  
  29651. edsr!jlb@uunet.UU.NET (Jeff Buchmiller) writes:
  29652.  
  29653. >But PLEASE don't forget about portability.  If the same code can be compiled
  29654. >onto multiple architectures, it will make the programmer's job MUCH MUCH
  29655. >easier.  (Tune to new architecture, instead of rewrite from scratch.)
  29656.  
  29657. Well, first, before we worry about portability, we should worry about
  29658. setting a standard for some parallel language. I know of at least 10+
  29659. languagese used on different machines, most of which are supersets of
  29660. existing standardized languages (The addendum essentially deals with
  29661. the "parallel" part).
  29662.  
  29663. Before we can even do this, we need to come up with a very abstract
  29664. and general way to represent a parallel machine of any architecture.
  29665. (I don't suppose there has been much research in paralle automatons
  29666. and parallel Turing machines? ;) (just blabbing about my problem
  29667. set)).  We have to be able to describe the machines so well that to a
  29668. programmer, the machine is simply a black box. (Well, non-system
  29669. programmers anyway).
  29670.  
  29671. OK. So that means we need a standard OS and a standard compiler....
  29672.  
  29673. True, right now most parallel machines run some derivative of UNIX.
  29674. But just take some system specific codes (i.e., codes that can do
  29675. lotsa real work) and try to compile it on a different derivative of
  29676. UNIX. (Well, I guess you can say the same about workstation UNIXes,
  29677. but they seem to be more standardized than MPP UNIXes, although
  29678. decidedly there are fewer flavors of MPP UNIXes than workstation
  29679. UNIXes.)
  29680.  
  29681. Someone also needs to develop a complete mathematical theory of
  29682. parallel computing (Hehe, "complete" in the non-Godel sense) in order
  29683. to develop bug-free and totally-portable algorithms.
  29684.  
  29685.  
  29686. Kevin S.-C. Tsai, who's looking for a summer job in supercomputing. ;)
  29687. stsai@husc.harvard.edu
  29688.  
  29689.  
  29690. Approved: parallel@hubcap.clemson.edu
  29691. Follow-up: comp.parallel
  29692. Path: bounce-back
  29693. Newsgroups: comp.parallel
  29694. From: scott@cs.rochester.edu (Michael Scott)
  29695. Subject: Re: barrier synchronisation
  29696. Keywords: barrier ksr
  29697. Organization: University of Rochester Computer Science Department
  29698. References: <1993Nov4.152918.24903@hubcap.clemson.edu>
  29699.  
  29700. In article <1993Nov4.152918.24903@hubcap.clemson.edu>,
  29701. Kerry Guise <kerry@totara.cs.waikato.ac.nz> wrote:
  29702. | I'm wondering if anyone can help me with the barrier synchronisation  
  29703. | functions which are extensions of the KSR implementation of the pthreads  
  29704. | library. I'm trying to port a program written for the KSR to Solaris 2.x  
  29705. | and I've run up against this barrier :-). How easy would it be to  
  29706. | implement my own barrier synchronisation mechanism using standard tools  
  29707. | such as mutexes, cv's etc ? Can anyone suggest some papers I could read on  
  29708. | the subject ?
  29709.  
  29710. Most any parallel machine is likely to have barrier routines in its
  29711. parallel programming library.  I'm not sure what Sun provides.
  29712.  
  29713. Writing your own barrier is easy.  You don't even need atomic operations
  29714. other than read and write.  There are lots of papers on the subject.
  29715. One that John Mellor-Crummey and I wrote contains a survey of the main
  29716. alternatives, and cites many other papers, so I'd suggest you start there:
  29717.  
  29718.     %A John M. Mellor-Crummey
  29719.     %A Michael L. Scott
  29720.     %T Algorithms for Scalable Synchronization on Shared-Memory
  29721.     Multiprocessors
  29722.     %J ACM TOCS
  29723.     %V 9
  29724.     %N 1
  29725.     %P 21-65
  29726.     %D February 1991
  29727.     %X Earlier version published as TR 342, University of Rochester
  29728.     Computer Science Department, April 1990, and COMP TR90-114, Center
  29729.     for Research on Parallel Computation, Rice University, May 1990.
  29730.  
  29731. The one possible glitch is that KSR's barrier implementation has an unusual
  29732. interface that can be used in non-standard ways.  If you always call
  29733. pthread_barrier_checkout and pthread_barrier_checkin back-to-back, you're
  29734. safe -- that give the effect that everybody else is used to.
  29735.  
  29736. -----------------------
  29737. Michael L. Scott
  29738. Computer Science Dept.      (716) 275-7745, 5478
  29739. University of Rochester       FAX 461-2018
  29740. Rochester, NY  14627-0226   scott@cs.rochester.edu
  29741. Approved: parallel@hubcap.clemson.edu
  29742. Follow-up: comp.parallel
  29743. Path: bounce-back
  29744. Newsgroups: comp.parallel
  29745. From: conpar94@gup.uni-linz.ac.at (Siegfried Grabner,GUP-Linz)
  29746. Subject: CFP: CONPAR 94 - VAPP VI
  29747. Nntp-Posting-Host: athena.gup.uni-linz.ac.at
  29748. Reply-To: conpar94@gup.uni-linz.ac.at
  29749. Organization: GUP Linz, University Linz, AUSTRIA
  29750.  
  29751.                             CONPAR 94 - VAPP VI
  29752.  
  29753.                 Johannes Kepler University of Linz, Austria
  29754.                             September 6-8, 1994
  29755.  
  29756.  
  29757.                             First Announcement
  29758.                                   and
  29759.                              Call For Papers
  29760.  
  29761.  
  29762. The past decade has seen the emergence of two highly successful series of CONPAR and of VAPP conferences on the subject of parallel processing. The Vector and Parallel Processors in Computational Sciene meetings were held in Chester (VAPP I, 1981), Oxford (VAPP II, 1984), and Liverpool (VAPP III, 1987). The International Conferences on Parallel Processing took place in Erlangen (CONPAR 81), Aachen (CONPAR 86) and Manchester (CONPAR 88). In 1990 the two series joined together and the CONPAR 90 - VAPP IV con
  29763. ference was organized in Zurich. CONPAR 92 - VAPP V took place in Lyon, France.
  29764.  
  29765. The next event in the series, CONPAR 94 - VAPP VI, will be organized in 1994 at the University of Linz (Austria) from September 6 to 8, 1994. The format of the joint meeting will follow the pattern set by its predecessors. It is intended to review hardware and architecture developments together with languages and software tools for supporting parallel processing and to highlight advances in models, algorithms and applications software on vector and parallel architectures.
  29766.  
  29767. It is expected that the program will cover:
  29768.  
  29769. * languages / software tools    * automatic parallelization and mapping
  29770. * hardware / architecture       * performance analysis
  29771. * algorithms                    * applications
  29772. * models / semantics            * paradigms for concurrency
  29773. * testing and debugging         * portability
  29774.  
  29775. A special session will be organized on Parallel Symbolic Computation.
  29776.  
  29777. The proceedings of the CONPAR 94 - VAPP VI conference are intended to be published in the Lecture Notes in Computer Science series by Springer Verlag.
  29778.  
  29779. This conference is organized by GUP-Linz in cooperation with RISC-Linz, ACPC and IFSR. Support by GI-PARS, OCG, OGI, IFIP WG10.3, IEEE, ACM, AFCET, CNRS, C3, BCS-PPSG, SIG and other organizations is being negotiated.
  29780.  
  29781. Schedule:
  29782.  
  29783. Second Announcement and Final Call for Papers          October 1993
  29784. Submission of complete papers and tuturials            Feb 15 1994
  29785. Notification of acceptance                             May 1 1994
  29786. Final (camera-ready) version of accepted papers        July 1 1994
  29787.  
  29788. Paper submittance:
  29789.  
  29790. Contributors are invited to send five copies of a full paper not exceeding 15 double-spaced pages in English to the program committee chairman at:
  29791.  
  29792.        CONPAR 94 - VAPP VI
  29793.        c/o Prof. B. Buchberger
  29794.        Research Institute for Symbolic Computation (RISC-Linz) 
  29795.        Johannes Kepler University, A-4040 Linz, Austria 
  29796.        Phone: +43 7236 3231 41, Fax: +43 7236 3231 30 
  29797.        Email: conpar94@risc.uni-linz.ac.at
  29798.  
  29799. The title page should contain a 100 word abstract and five specific keywords.
  29800.  
  29801. CONPAR/VAPP also accepts and explicitly encourages submission by electronic mail to conpar94@risc.uni-linz.ac.at. Submitted files must be either
  29802.  
  29803. * in uuencoded (preferably compressed) DVI format or
  29804. * in uuencoded (preferably compressed) Postscript format
  29805.  
  29806. as created on most Unix systems by
  29807.  
  29808. cat paper.dvi | compress | uuencode paper.dvi.Z > paper.uue
  29809.  
  29810.  
  29811. Organising committee:
  29812.  
  29813. Conference Chairman:    Prof. Jens Volkert
  29814. Honorary Chairman:    Prof. Wolfgang Handler
  29815. Program Chairman:    Prof. Bruno Buchberger
  29816. Members:    Siegfried Grabner, Wolfgang Schreiner
  29817. Conference Address:    University of Linz, 
  29818.     Dept. of Computer Graphics and Parallel Processing (GUP-Linz), 
  29819.     Altenbergerstr. 69, A-4040 Linz, Austria
  29820.     Tel.: +43-732-2468-887 (885), Fax.: +43-732-2468-10
  29821.     Email: conpar94@gup.uni-linz.ac.at
  29822.  
  29823. Provisional program committee:
  29824.  
  29825. Chairman: Buchberger B. (A)
  29826. Burkhart H. (CH), Cosnard M. (F), Delves L.M. (UK), Ffitch J. (UK), Haring G. (A), Hong H. (A), Jesshope Ch. (UK), Jordan H.F. (USA), Kaltofen E. (USA)., Kleinert W. (A), Kuchlin W. (D), Parkinson D. (UK), Miola A. (I), Mirenkov N. (J), Muraoka Y. (J), Reinartz K.D. (D), Steinhauser O. (A), Wait R. (UK), Wang P. (USA)., Zinterhof P. (A)
  29827.  
  29828. Reply Form:
  29829.  
  29830. We encourage you to reply via e-mail, giving us the information listed below. If you do not have the possibility to use e-mail, please copy the form below and send it to the conference address.
  29831.  
  29832.  
  29833.                       CONPAR 94 - VAPP VI 
  29834.                             Reply Form
  29835.  
  29836.  
  29837. Name:...................................First Name................Title.........
  29838.     
  29839. Institution:....................................................................
  29840.  
  29841. Address:........................................................................
  29842.  
  29843. Telephone:.....................Fax:............................E-Mail:..........
  29844.  
  29845. Intentions (please check appropriate boxes)
  29846.  
  29847.     o    I expect to attend the conference
  29848.     o    I wish to present a paper
  29849.     o    I wish to present at the exhibition (industrial / academic)
  29850.  
  29851.  
  29852. ------------------------------------------------------------------------------
  29853. Siegfried GRABNER                                 Tel: ++43-732-2468-884 (887)
  29854. Dept. for Graphics and Parallel Processing        Fax: ++43-732-2468-10
  29855. (GUP-Linz)
  29856. Johannes Kepler University                        Email: 
  29857. Altenbergerstr.69, A-4040 Linz,Austria/Europe     conpar94@gup.uni-linz.ac.at
  29858. ------------------------------------------------------------------------------
  29859.  
  29860. Approved: parallel@hubcap.clemson.edu
  29861. Follow-up: comp.parallel
  29862. Path: bounce-back
  29863. Newsgroups: comp.parallel
  29864. From: jx@cs.brown.edu (Jian Xu)
  29865. Subject: Sharing hotel room at 5th IEEE SPDP, Dallas, TX
  29866. Keywords: SPDP
  29867. Sender: news@cs.brown.edu
  29868. Organization: Brown University Department of Computer Science
  29869.  
  29870. I am a male graduate student and I am looking for a person to share
  29871. the hotel room at 5th IEEE Symposium on Parallel and Distributed 
  29872. Processing held on Dec. 1-4 in Dallas, TX. If you are interested, 
  29873. please email me at jx@cs.brown.edu. 
  29874.  
  29875. Jian
  29876.  
  29877.  
  29878.  
  29879.  
  29880. Approved: parallel@hubcap.clemson.edu
  29881. Follow-up: comp.parallel
  29882. Path: bounce-back
  29883. Newsgroups: comp.parallel
  29884. From: sgarg@egr.duke.edu (Sachin Garg)
  29885. Newsgroups: comp.parallel,comp.theory
  29886. Subject: Performance evaluation of distributed algorithms
  29887. Organization: Duke University EE Dept.; Durham, NC
  29888.  
  29889. Hi everyone--
  29890.     
  29891. In performance evaluation of distributed algorithms, people generally
  29892. talk in terms of time and message complexity. However, in some models
  29893. of distributed computations (CSP, CCS), which were developed largly
  29894. for correctness verification, time has been incorporated to obtain
  29895. "finishing time of a program". It is either a probabilistic study, in which
  29896. case an expected finishing time is reported or a deterministic study
  29897. in which "upper or lower bounds" on the performance metric are reported.
  29898.  
  29899. I am looking for refrences to all such work. Also, if you know of 
  29900.     (1) any other models of distributed algorithms/programs that address
  29901. both the correctness and the performance part, 
  29902.     (2) Probabilistic modelling methods/tools used to model dis. algo.
  29903.     (3) work on fault/reliability modelling of distributed algorithms.
  29904.  
  29905. please pass the info through email to:
  29906.  
  29907.     sgarg@markov.ee.duke.edu
  29908.  
  29909. I will post a summary/list of refrences.
  29910. Thanks in advance.
  29911.  
  29912. Sachin Garg
  29913. --
  29914. Sachin Garg
  29915. Box 90291 Dept. of Electrical Engg.
  29916. Duke University
  29917. Durham, North Carolina 27708-0291
  29918.  
  29919.  
  29920.  
  29921. Approved: parallel@hubcap.clemson.edu
  29922. Follow-up: comp.parallel
  29923. Path: bounce-back
  29924. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  29925. From: elwin@media.mit.edu (Lee W Campbell)
  29926. Subject: Re: INMOS Information available on T9000
  29927. Sender: news@media.mit.edu (USENET News System)
  29928. Organization: MIT Media Laboratory
  29929. References:  <1993Nov11.213059.26255@hubcap.clemson.edu>
  29930. Date: Sat, 13 Nov 1993 21:27:57 GMT
  29931. Apparently-To: comp-parallel@uunet.uu.net
  29932.  
  29933. In article <1993Nov11.213059.26255@hubcap.clemson.edu>, thompson@inmos.co.uk () writes:
  29934. > Some information regarding the IMS T9000 transputer is now available on the
  29935. > INMOS FTP server, ftp.inmos.co.uk [192.26.234.3], in the directory
  29936. > /inmos/info/T9000.  This relates mainly to the superscalar processor and
  29937. > the cache memory system at present.
  29938.  
  29939. For the fun of it I checked it out. What was available was a Q&A and a press
  29940. release. I got the press release. It's kind of amusing:
  29941.  
  29942.           26 March,  1993.    London,  UK.    INMOS  announces  sample
  29943.           availability of  the T9000  transputer.   Just  three  years
  29944.           after design  commenced, ...
  29945.  
  29946. Now I *know* I was hearing about this chip in the summer of '91 and
  29947. possibly earlier.  Does this mean that Inmos announced the part at the
  29948. same time as they commenced design??  In any case, I think that delay
  29949. of 2.5 years from announcement to sampling has got to set a record in
  29950. the microprocessor biz.
  29951.  
  29952.           The T9000  is the world's fastest single-chip computer, with
  29953.           its 200  MIPS, 25  MFLOPS peak  performance and  its  32-bit
  29954.           superscalar integer  processor, 64-bit  floating point unit,
  29955.           virtual channel  processor, 100Mbits/s  communications ...
  29956.  
  29957. World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  29958. R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  29959. how in the hell do they manage to call it "fastest'???
  29960.  
  29961.  -- Often in error; Never in Doubt!     elwin@media.mit.edu    617-253-0381
  29962.                     Lee Campbell        MIT Media Lab
  29963.  
  29964. Approved: parallel@hubcap.clemson.edu
  29965. Follow-up: comp.parallel
  29966. Path: bounce-back
  29967. Newsgroups: comp.parallel
  29968. From: linear@budada.eecs.umich.edu (linear)
  29969. Subject: parallel benchmarks
  29970. Date: 14 Nov 1993 21:14:36 GMT
  29971. Organization: University of Michigan Engineering, Ann Arbor
  29972. Reply-To: linear@budada.eecs.umich.edu (Hsien-Hsin Lee)
  29973. Nntp-Posting-Host: budada.eecs.umich.edu
  29974.  
  29975.  
  29976. Is there any free parallel benchmarks available on anonymous ftp sites
  29977. that I can access ? I'll do some experiments for comparing some loop
  29978. scheduling strategies to analyze the data affinity, load balancing,
  29979. synchronization and communication overhead.
  29980. Thanx.
  29981.  
  29982. HHL
  29983. linear@eecs.umich.edu
  29984.  
  29985.  
  29986. True today, true yesterday, true tomorrow
  29987. That's my definition of classics.
  29988.  
  29989. Approved: parallel@hubcap.clemson.edu
  29990. Follow-up: comp.parallel
  29991. Path: bounce-back
  29992. Newsgroups: comp.parallel
  29993. From: jimh@netcom.com (James Hsin)
  29994. Subject: need references on massively parallel architecture
  29995. Organization: Netcom - Online Communication Services (408 241-9760 guest)
  29996.  
  29997. I'm working on a paper on massively parallel architectures and am at a loss
  29998. for reference material.  I would really appreciate it if someone could
  29999. point me in the general direction of some technical information.  Thanks.
  30000.  
  30001. James Hsin
  30002.  
  30003. jimh@netcom.com
  30004.  
  30005. Approved: parallel@hubcap.clemson.edu
  30006. Follow-up: comp.parallel
  30007. Path: bounce-back
  30008. Newsgroups: comp.parallel,comp.sys.super
  30009. From: jet@nas.nasa.gov (J. Eric Townsend)
  30010. Subject: mailing list info on TMC CM-5, Intel iPSC/860, Intel Paragon
  30011. Sender: news@nas.nasa.gov (News Administrator)
  30012. Nntp-Posting-Host: boxer.nas.nasa.gov
  30013. Organization: NAS/NASA-Ames Research Center
  30014. Date: Mon, 15 Nov 1993 08:00:17 GMT
  30015. Apparently-To: comp-parallel@ames.arc.nasa.gov
  30016.  
  30017.  
  30018. J. Eric Townsend (jet@nas.nasa.gov)
  30019. last updated: 3 Nov 1993 (corrected admin/managers list info)
  30020.  
  30021. This file is posted to USENET automatically on the 1st and 15th of
  30022. each month.
  30023.  
  30024. It is mailed to the respective lists to remind users how to
  30025. unsubscribe and set options.
  30026.  
  30027. INTRODUCTION
  30028. ------------
  30029.  
  30030. Several mailing lists exist at NAS for the discussion of using and
  30031. administrating Thinking Machines CM-5  and Intel iPSC/860 parallel
  30032. supercomputers.
  30033.  
  30034. These mailing lists are open to all persons interested in the systems.
  30035.  
  30036. The lists are:
  30037.  
  30038. LIST-NAME               DESCRIPTION
  30039. cm5-managers    --  discussion of administrating the TMC CM-5
  30040. cm5-users       --       "     "   using the TMC CM-5
  30041. ipsc-managers      --       "     "  administrating the Intel iPSC/860
  30042. ipsc-users      --       "     "  using the Intel iPSC/860
  30043. paragon-managers   --       "     "  administrating the Intel Paragon
  30044. paragon-users   --       "     "  using the Intel Paragon
  30045.  
  30046. The ipsc-* lists at cornell are going away, the lists here will
  30047. replace them. (ISUG members will be receiving information on this in
  30048. the near future.)  The cm5-users list is intended to complement the
  30049. lbolt list at MSC.
  30050.  
  30051. SUBSCRIBING/UNSUBSCRIBING
  30052. -------------------------
  30053.  
  30054. All of the above lists are run with the listserv package.  In the
  30055. examples below, substitute the name of the list from the above table
  30056. for the text "LIST-NAME".
  30057.  
  30058. To subscribe to any of the lists, send email to
  30059. listserv@boxer.nas.nasa.gov with a *BODY* of
  30060.  
  30061. subscribe LIST-NAME your_full_name
  30062.  
  30063. Please note:
  30064.  - you are subscribed with the address that you sent the email from.
  30065.    You cannot subscribe an address other than your own.  This is
  30066.    considered a security feature, but I haven't gotten around to taking
  30067.    it out.
  30068.  - your subscription will be handled by software, so any other text
  30069.    you send will be ignored
  30070.  
  30071. Unsubscribing
  30072.  
  30073. It is important to understand that you can only unsubscribe from the
  30074. address you subscribed from.  If that is impossible, please contact
  30075. jet@nas.nasa.gov to be unsubscribed by hand.  ONLY DO THIS IF
  30076. FOLLOWING THE INSTRUCTIONS DOES NOT PRODUCE THE DESIRED RESULTS!  I
  30077. have better things to do than manually do things that can be
  30078. automated.
  30079.  
  30080. To unsubscribe from any of the mailing lists, send email to
  30081. listserv@boxer.nas.nasa.gov with a body of
  30082.  
  30083. unsubscribe LIST-NAME
  30084.  
  30085. OPTIONS
  30086. -------
  30087. If you wish to receive a list in digest form, send a message
  30088. to listserv@boxer.nas.nasa.gov with a body of
  30089.  
  30090. set LIST-NAME mail digest
  30091.  
  30092. OBTAINING ARCHIVES
  30093. ------------------
  30094.  
  30095. There are currently no publicly available archives.  As time goes on,
  30096. archives of the lists will be made available.  Watch this space.
  30097. -- 
  30098. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  30099. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  30100. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  30101. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  30102.  
  30103. Approved: parallel@hubcap.clemson.edu
  30104. Follow-up: comp.parallel
  30105. Path: bounce-back
  30106. Newsgroups: comp.parallel
  30107. From: edwin@dutind2.twi.tudelft.nl (Edwin Vollebregt)
  30108. Subject: Re: The Future of Parallel Computing
  30109. Sender: news@dutiws.twi.tudelft.nl (TWI News Administration)
  30110. Organization: Delft University of Technology
  30111. References:  <1993Nov11.142504.9124@hubcap.clemson.edu>
  30112. Date: Mon, 15 Nov 1993 09:10:44 GMT
  30113. Apparently-To: comp-parallel@NL.net
  30114.  
  30115. Hello 
  30116.  
  30117. This thread about the future of parallel computation has been going on for
  30118. a while. I have heard many good arguments coming along. Let me give my 
  30119. opinion, where I borrow a lot from the latest replies that I saved. Excuse
  30120. me for not knowing who said what, and excuse me if I explain words precisely
  30121. how you NOT meant them.
  30122.  
  30123. I think the discussion was started as follows:
  30124.  
  30125. >    We are now in an age when the high performance machines have
  30126. > various data network topologies, i.e. meshes, torii, linear arrays,
  30127. > vector processors, hypercubes, fat-trees, switching networks, etc..
  30128. > etc.. These parallel machines might all have sexy architectures, but
  30129. > we are headed in the wrong direction if we don't take a step back and
  30130. > look at the future of our work.  We shouldn't have to rewrite our
  30131.                                      ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  30132. > algorithms from scratch each time our vendor sells us the latest
  30133. > hardware with amazing benchmarks.  
  30134.  
  30135. Very good point. IMHO, the low portability is partially the result of a lack
  30136. of uniform programming model, tools, languages and communication interfaces.
  30137.  
  30138. > My hope is that, eventually, people will be able to switch from MPP A 
  30139. > to MPP B merely by recompiling all of their code (perhaps with a few 
  30140. > changes of #include files or predefined constants).  
  30141.  
  30142. This might be possible to some extent when standard interfaces arise.
  30143. However, I think that it cannot be achieved completely, as I'll explain below.
  30144.  
  30145. > In order for this to happen, though, the community must realize that a 
  30146. > loss of a few percent of performance in exchange for portability and ease 
  30147. > of coding and maintenance is acceptable for MPPs.
  30148.  
  30149. This argument has also been given by others:
  30150.  
  30151. > The goal of compiling for parallel code should NOT necessarily be "the 
  30152. > best possible code;" it should be "reasonably close to the best possible 
  30153. > code."
  30154.  
  30155. In future, when parallelizing compilers are much better than nowadays, we
  30156. can expect that only ``a few percent'' of performance is lost by relying on
  30157. them.
  30158.  
  30159. We now come to my contribution to the discussion. My point is that in 
  30160. scientific computing, there is much freedom in choosing an algorithm. There
  30161. are many ways to calculate a result. Furthermore, there are large differences
  30162. in parallelism between algorithms. Some algorithms are well suited for 
  30163. parallel processing, others not. And no compiler can ever do anything about
  30164. that. Finally there is a large influence of architecture on parallelism.
  30165. Thus the parallelism in an algorithm possibly cannot be exploited on MPP A or
  30166. MPP B.
  30167.  
  30168. I read part of this point also in other replies:
  30169.  
  30170. > A computational scientist has to know his computer sufficiently well 
  30171. > to make it produce results (nearly) as efficiently as possible.  The 
  30172. > scientist will have to push his methods (i.e., codes) whenever he 
  30173. > acquires a new hot box.  ...
  30174. > I believe there is no excuse for ignoring the hardware you use for
  30175. > scientific computing.  ...
  30176. > A corollary is that "black-box" usage of codes or compilers in scientific 
  30177. > computing will often be poor use of resources.
  30178.  
  30179. A computational scientist must know which algorithm is suitable for his
  30180. architecture, and should tune his code to the architecture.
  30181. Thus I disagree with:
  30182.  
  30183. > A few replies to this thread have taken the line that scientific 
  30184. > computing is quite happy to have to 'streamline code', or in other
  30185.                             ^^^^^^^^^^^^^
  30186. > words hack routines in assembly language.
  30187.  ^^^^^^^
  30188.  
  30189. Streamline code IMHO means ``use an algorithm that is suitable for the 
  30190. architecture at hand''.
  30191.  
  30192. In conclusion:
  30193.  
  30194. > I think the time has come for software engineering to catch up with 
  30195. > hardware engineering in the parallel computing world. 
  30196.  
  30197. There is much need for standards. Programming languages, communication
  30198. libraries, memory models, .. There is also much need for parallelizing
  30199. compilers that (semi-) automatically distribute tasks, generate communi-
  30200. cation statements, and that are quite good in getting the best performance
  30201. out of an algorithm on a specific architecture.
  30202.  
  30203. Finally, comutational scientists should realize which parts of their 
  30204. algorithms are not well suited for an architecture. In the design of new
  30205. applications, they should realize which parts are most likely to change
  30206. when a new architecture becomes available, and should keep these parts
  30207. well separated from other parts of the program.
  30208.  
  30209. >  Please let me know what you think,
  30210.                         Edwin
  30211.  _________________________________________________________________________ 
  30212. |                            |                                 |          |
  30213. | Ir. Edwin A.H. Vollebregt  |  Section of Applied Mathematics |    ,==.  |
  30214. |                            |  Delft University of Technology |   /@  |  |
  30215. | phone +31(0)15-785805      |  Mekelweg 4                     |  /_  <   |
  30216. | edwin@pa.twi.tudelft.nl    |  2628 CD Delft                  |  =" `g'  |
  30217. |                            |     The Netherlands             |          |
  30218. |____________________________|_________________________________|__________|
  30219.  
  30220.  
  30221.  
  30222. Approved: parallel@hubcap.clemson.edu
  30223. Follow-up: comp.parallel
  30224. Path: bounce-back
  30225. Newsgroups: comp.parallel
  30226. From: spitz@irb.uni-hannover.de (Jan Spitzkowsky)
  30227. Subject: parallel simulation
  30228. Summary: parallel simulation, pessimistic - optimistic
  30229. Keywords: pdes, pessimistic simulation, optimistic simulation
  30230. Sender: news@newsserver.rrzn.uni-hannover.de (News Service)
  30231. Organization: IRB Uni-Hannover, Germany
  30232. Date: Mon, 15 Nov 1993 11:10:00 GMT
  30233. Apparently-To: hypercube@hubcap.clemson.edu
  30234.  
  30235. hello,
  30236.  
  30237. i'm new to this group and i don't know whether there is a more specific one for
  30238. simulation in parallel.
  30239.  
  30240. i am looking for parallel discrete event simulators. does anybody work with a
  30241. pdes-simulator or have some expierience with it? i am looking for simulators
  30242. with pessimistic (conservative) and/or optimistic algorithms.
  30243.  
  30244. thanks,
  30245.     jan
  30246.  
  30247.  
  30248. Approved: parallel@hubcap.clemson.edu
  30249. Follow-up: comp.parallel
  30250. Path: bounce-back
  30251. Newsgroups: comp.parallel
  30252. From: jabf@festival.ed.ac.uk
  30253. Newsgroups: comp.parallel
  30254. From: jabf@festival.ed.ac.uk (J Blair-Fish)
  30255. Subject: General Purpose Computing
  30256. Message-ID: <CGJ7AG.1pM@festival.ed.ac.uk>
  30257. Organization: Edinburgh University
  30258. Date: Mon, 15 Nov 1993 11:44:39 GMT
  30259.  
  30260.  
  30261.                         The  British  Computer  Society
  30262.                     Parallel  Processing  Specialist  Group
  30263.                                    (BCS PPSG)
  30264.  
  30265.                      General  Purpose  Parallel  Computing
  30266.  
  30267.  
  30268.            A One Day Open Meeting with Invited and Contributed Papers
  30269.  
  30270.             22 December 1993, University of Westminster, London, UK
  30271.  
  30272.  
  30273.                                Invited speakers :
  30274.  
  30275.                         Les Valiant, Harvard University
  30276.                    Bill McColl, PRG, University of Oxford, UK
  30277.                               David May, Inmos, UK
  30278.  
  30279.  
  30280. A key factor for the growth of parallel computing is the availability  of  port-
  30281. able  software.   To be portable, software must be written to a model of machine
  30282. performance with universal applicability. Software providers  must  be  able  to
  30283. provide  programs whose performance will scale with machine and application size
  30284. according to agreed principles.  This environment presupposes a model of  paral-
  30285. lel  performance, and one which will perform well for irregular as well as regu-
  30286. lar patterns of interaction.  Adoption of a common model by machine  architects,
  30287. algorithm  &  language  designers  and programmers is a precondition for general
  30288. purpose parallel computing.
  30289.  
  30290. Valiant's Bulk Synchronous Parallel (BSP) model provides a bridge between appli-
  30291. cation,  language  design and architecture for parallel computers. BSP is of the
  30292. same nature for parallel computing as the Von Neumann model  is  for  sequential
  30293. computing.   It  forms  the focus of a project for scalable performance parallel
  30294. architectures supporting architecture independent software. The  model  and  its
  30295. implications  for  hardware and software design will be described in invited and
  30296. contributed talks.
  30297.  
  30298.  
  30299.  
  30300. The PPSG, founded in 1986, exists to foster development  of  parallel  architec-
  30301. tures,  languages and applications & to disseminate information on parallel pro-
  30302. cessing. Membership is completely open; you do not have to be a  member  of  the
  30303. British  Computer  Society.  For further information about the group contact ei-
  30304. ther of the following :
  30305.  
  30306. Chair : Mr. A. Gupta                     Membership Secretary: Dr. N. Tucker
  30307. Philips Research Labs, Crossoak Lane,    Paradis Consultants, East Berriow,
  30308. Redhill, Surrey, RH1 5HA, UK             Berriow Bridge, North Hill, Nr. Launceston,
  30309. gupta@prl.philips.co.uk                  Cornwall, PL15 7NL, UK
  30310.  
  30311.  
  30312.           Please share this information and display this announcement
  30313.  
  30314.  
  30315.                         The  British  Computer  Society
  30316.                     Parallel  Processing  Specialist  Group
  30317.                                    (BCS PPSG)
  30318.  
  30319.                      General  Purpose  Parallel  Computing
  30320.  
  30321.                                22 December 1993,
  30322.                          Fyvie Hall, 309 Regent Street,
  30323.                      University of Westminster, London, UK
  30324.  
  30325.  
  30326. Provisional Programme
  30327.  
  30328. 9 am-10 am  Registration & Coffee
  30329.  
  30330.      L. Valiant,  Harvard University,
  30331.          "Title to be announced"
  30332.      W. McColl,  Oxford University,
  30333.          Programming models for General Purpose Parallel Computing
  30334.      A. Chin,  King's College,  London University,
  30335.          Locality of Reference in Bulk-Synchronous Parallel Computation
  30336.      P. Thannisch et al,  Edinburgh University,
  30337.          Exponential Processor Requirements for Optimal Schedules
  30338.          in Architecture with Locality
  30339.  
  30340.  Lunch
  30341.  
  30342.      D. May,  Inmos
  30343.          "Title to be announced"
  30344.      R. Miller,  Oxford University,
  30345.          A Library for Bulk Synchronous Parallel Programming
  30346.      C. Jesshope et al,  Surrey University,
  30347.          BSPC and the N-Computer
  30348.  
  30349. Tea/Coffee
  30350.  
  30351.      P. Dew et al,  Leeds University,
  30352.          Scalable Parallel Computing using the XPRAM model
  30353.      S. Turner et al,  Exeter University,
  30354.          Portability and Parallelism with `Lightweight P4'
  30355.      N. Kalentery et al,  University of Westminster,
  30356.          From BSP to a Virtual Von Neumann Machine
  30357.      R. Bisseling,  Utrecht University,
  30358.          Scientific Computing on Bulk Synchronous Parallel Architectures
  30359.      B. Thompson et al,  University College of Swansea,
  30360.          Equational Specification of Synchronous Concurrent Algorithms and 
  30361.          Architectures
  30362.  
  30363. 5.30 pm  Close
  30364.  
  30365.  
  30366.           Please share this information and display this announcement
  30367.  
  30368.  
  30369.  
  30370.        The British Computer Society Parallel Processing Specialist Group
  30371.  
  30372.  
  30373. Booking Form/Invoice                                  BCS VAT No. : 440-3490-76
  30374.  
  30375.  
  30376. Please reserve a place at the Conference on General Purpose Parallel Computing,
  30377. London, December 22 1993, for the individual(s) named below.
  30378.  
  30379.  
  30380. Name of delegate        BCS membership no.       Fee      VAT      Total
  30381.                          (if  applicable)
  30382. ___________________________________________________________________________
  30383.  
  30384. ___________________________________________________________________________
  30385.  
  30386. ___________________________________________________________________________
  30387.  
  30388.  
  30389. Cheques, in pounds sterling, should be made payable to "BCS Parallel Processing
  30390. Specialist Group".  Unfortunately credit card bookings cannot be accepted.
  30391.  
  30392.  
  30393. The delegate fees (including lunch, refreshments and proceedings) are 
  30394. (in pounds sterling) :
  30395.  
  30396.      Members of both PPSG & BCS:   55  +  9.62  VAT  =  64.62
  30397.      PPSG or BCS members:          70  +  12.25 VAT  =  82.25
  30398.      Non members:                  90  +  15.75 VAT  = 105.75
  30399.      Full-time students:           25  +   4.37 VAT  =  29.37
  30400.  
  30401. (Students should provide a letter of endorsement from their supervisor 
  30402. that also clearly details their institution)
  30403.  
  30404.  
  30405. Contact Address:    ___________________________________________
  30406.  
  30407.                     ___________________________________________
  30408.  
  30409.                     ___________________________________________
  30410.  
  30411. Email address:      _________________
  30412.  
  30413. Date: _________________    Day time telephone: ________________
  30414.  
  30415.  
  30416. Places are limited so please return this form as soon as possible to :
  30417.  
  30418.              Mrs C. Cunningham
  30419.              BCS PPSG
  30420.              2 Mildenhall Close, Lower Earley,
  30421.              Reading, RG6 3AT, UK
  30422.              (Phone 0734 665570)
  30423.  
  30424.  
  30425. -- 
  30426.  
  30427.  
  30428.  
  30429.  
  30430. Approved: parallel@hubcap.clemson.edu
  30431. Follow-up: comp.parallel
  30432. Path: bounce-back
  30433. From: sjnh@panix.com (Steven Hargreaves)
  30434. Newsgroups: comp.parallel,comp.parallel.pvm
  30435. Subject: Need Information and Job Candidates
  30436. Date: 15 Nov 1993 08:10:54 -0500
  30437. Organization: PANIX Public Access Internet and Unix, NYC
  30438. Summary: Looking for suppliers and people to help build finance application
  30439. Keywords: Finance Banking Simulation Portfolio Application
  30440.  
  30441. I am looking at the feasibility of using parallel techniques in a project
  30442. for a financial institution.  The system would support portfolio 
  30443. management.
  30444.  
  30445. The technical approach is not fixed, but I'd like to hear from software
  30446. vendors selling (or developing) tools for parallel processing on
  30447. multi-cpu Intel systems or across networked Unix boxes or PCs running 
  30448. Windows and potentially /NT.  C language is preferred. 
  30449.  
  30450. We plan to recruit an individual to work on the technical aspects of the
  30451. project.  The skills profile will be: demonstrated ability to develop
  30452. parallel systems; sound understanding of both theoretical and
  30453. practical issues; intellectual strength coupled with a "can do"
  30454. approach that values deliverables as well as elegance.  Compensation will
  30455. be competitive; location is Wall St..
  30456.  
  30457. We have started gathering resumes.  Mail me with an outline if
  30458. this sounds interesting.
  30459.  
  30460. Regards,
  30461. Steven Hargreavs
  30462. sjnh@panix.com
  30463.  
  30464.  
  30465. To: comp-parallel@mcnc.org
  30466. Path: news.duke.edu!sgarg
  30467. From: sgarg@egr.duke.edu (Sachin Garg)
  30468. Newsgroups: comp.os.research
  30469. Subject: Performance evaluation of distributed algorithms
  30470. Date: 13 Nov 93 18:16:22 GMT
  30471. Sender: news@cs.duke.edu
  30472. Followup-To: comp.parallel
  30473. Organization: Duke University EE Dept.; Durham, NC
  30474. Nntp-Posting-Host: markov.ee.duke.edu
  30475.  
  30476. [This is a cross post from comp.parallel]
  30477.  
  30478. Hi everyone--
  30479.     
  30480. In performance evaluation of distributed algorithms, people generally
  30481. talk in terms of time and message complexity. However, in some models
  30482. of distributed computations (CSP, CCS), which were developed largly
  30483. for correctness verification, time has been incorporated to obtain
  30484. "finishing time of a program". It is either a probabilistic study, in which
  30485. case an expected finishing time is reported or a deterministic study
  30486. in which "upper or lower bounds" on the performance metric are reported.
  30487.  
  30488. I am looking for refrences to all such work. Also, if you know of 
  30489.     (1) any other models of distributed algorithms/programs that address
  30490. both the correctness and the performance part, 
  30491.     (2) Probabilistic modelling methods/tools used to model dis. algo.
  30492.     (3) work on fault/reliability modelling of distributed algorithms.
  30493.  
  30494. please pass the info through email to:
  30495.  
  30496.     sgarg@markov.ee.duke.edu
  30497.  
  30498. I will post a summary/list of refrences.
  30499. Thanks in advance.
  30500.  
  30501. Sachin Garg
  30502.  
  30503.  
  30504. ------------------------------------------------------------------------------
  30505.     sgarg@markov.ee.duke.edu
  30506.     Box 90291    
  30507.     Duke University    
  30508.     Durham, NC 27708
  30509.     ph: (919) 660 5230
  30510. ------------------------------------------------------------------------------
  30511.  
  30512. --
  30513. ------------------------------------------------------------------------------
  30514. Sachin Garg
  30515. Box 90291
  30516. Dept. of Electrical Engg.
  30517. Duke University
  30518. Durham, North Carolina 27708-0291
  30519.  
  30520.  
  30521.  
  30522. Date: Mon, 15 Nov 93 11:44:43 GMT
  30523. From: jabf@festival.ed.ac.uk
  30524. To: comp-parallel@britain.eu.net
  30525.  
  30526. Newsgroups: news.announce.conferences,comp.theory,comp.arch,comp.sys.super,uk.announce,uk.events,uk.bcs.announce,comp.benchmarks,comp.sys.sequent,comp.sys.alliant,comp.sys.encore,comp.sys.sun.hardware,comp.sys.hp,comp.sys.dec,comp.sys.sgi.hardware,eunet.misc,comp.simulation,sci.math.num-analysis,comp.theory.cell-automata,comp.theory.dynamic-sys,comp.theory.self-org-sys,comp.ai,sci.physics,sci.electronics,comp.arch.storage
  30527. Path: jabf
  30528. From: jabf@festival.ed.ac.uk (J Blair-Fish)
  30529. Subject: General Purpose Computing
  30530. Message-ID: <CGJ7AG.1pM@festival.ed.ac.uk>
  30531. Organization: Edinburgh University
  30532. Date: Mon, 15 Nov 1993 11:44:39 GMT
  30533.  
  30534.  
  30535.                         The  British  Computer  Society
  30536.                     Parallel  Processing  Specialist  Group
  30537.                                    (BCS PPSG)
  30538.  
  30539.                      General  Purpose  Parallel  Computing
  30540.  
  30541.  
  30542.            A One Day Open Meeting with Invited and Contributed Papers
  30543.  
  30544.             22 December 1993, University of Westminster, London, UK
  30545.  
  30546.  
  30547.                                Invited speakers :
  30548.  
  30549.                         Les Valiant, Harvard University
  30550.                    Bill McColl, PRG, University of Oxford, UK
  30551.                               David May, Inmos, UK
  30552.  
  30553.  
  30554. A key factor for the growth of parallel computing is the availability  of  port-
  30555. able  software.   To be portable, software must be written to a model of machine
  30556. performance with universal applicability. Software providers  must  be  able  to
  30557. provide  programs whose performance will scale with machine and application size
  30558. according to agreed principles.  This environment presupposes a model of  paral-
  30559. lel  performance, and one which will perform well for irregular as well as regu-
  30560. lar patterns of interaction.  Adoption of a common model by machine  architects,
  30561. algorithm  &  language  designers  and programmers is a precondition for general
  30562. purpose parallel computing.
  30563.  
  30564. Valiant's Bulk Synchronous Parallel (BSP) model provides a bridge between appli-
  30565. cation,  language  design and architecture for parallel computers. BSP is of the
  30566. same nature for parallel computing as the Von Neumann model  is  for  sequential
  30567. computing.   It  forms  the focus of a project for scalable performance parallel
  30568. architectures supporting architecture independent software. The  model  and  its
  30569. implications  for  hardware and software design will be described in invited and
  30570. contributed talks.
  30571.  
  30572.  
  30573.  
  30574. The PPSG, founded in 1986, exists to foster development  of  parallel  architec-
  30575. tures,  languages and applications & to disseminate information on parallel pro-
  30576. cessing. Membership is completely open; you do not have to be a  member  of  the
  30577. British  Computer  Society.  For further information about the group contact ei-
  30578. ther of the following :
  30579.  
  30580. Chair : Mr. A. Gupta                     Membership Secretary: Dr. N. Tucker
  30581. Philips Research Labs, Crossoak Lane,    Paradis Consultants, East Berriow,
  30582. Redhill, Surrey, RH1 5HA, UK             Berriow Bridge, North Hill, Nr. Launceston,
  30583. gupta@prl.philips.co.uk                  Cornwall, PL15 7NL, UK
  30584.  
  30585.  
  30586.           Please share this information and display this announcement
  30587.  
  30588.  
  30589.                         The  British  Computer  Society
  30590.                     Parallel  Processing  Specialist  Group
  30591.                                    (BCS PPSG)
  30592.  
  30593.                      General  Purpose  Parallel  Computing
  30594.  
  30595.                                22 December 1993,
  30596.                          Fyvie Hall, 309 Regent Street,
  30597.                      University of Westminster, London, UK
  30598.  
  30599.  
  30600. Provisional Programme
  30601.  
  30602. 9 am-10 am  Registration & Coffee
  30603.  
  30604.      L. Valiant,  Harvard University,
  30605.          "Title to be announced"
  30606.      W. McColl,  Oxford University,
  30607.          Programming models for General Purpose Parallel Computing
  30608.      A. Chin,  King's College,  London University,
  30609.          Locality of Reference in Bulk-Synchronous Parallel Computation
  30610.      P. Thannisch et al,  Edinburgh University,
  30611.          Exponential Processor Requirements for Optimal Schedules
  30612.          in Architecture with Locality
  30613.  
  30614.  Lunch
  30615.  
  30616.      D. May,  Inmos
  30617.          "Title to be announced"
  30618.      R. Miller,  Oxford University,
  30619.          A Library for Bulk Synchronous Parallel Programming
  30620.      C. Jesshope et al,  Surrey University,
  30621.          BSPC and the N-Computer
  30622.  
  30623. Tea/Coffee
  30624.  
  30625.      P. Dew et al,  Leeds University,
  30626.          Scalable Parallel Computing using the XPRAM model
  30627.      S. Turner et al,  Exeter University,
  30628.          Portability and Parallelism with `Lightweight P4'
  30629.      N. Kalentery et al,  University of Westminster,
  30630.          From BSP to a Virtual Von Neumann Machine
  30631.      R. Bisseling,  Utrecht University,
  30632.          Scientific Computing on Bulk Synchronous Parallel Architectures
  30633.      B. Thompson et al,  University College of Swansea,
  30634.          Equational Specification of Synchronous Concurrent Algorithms and 
  30635.          Architectures
  30636.  
  30637. 5.30 pm  Close
  30638.  
  30639.  
  30640.           Please share this information and display this announcement
  30641.  
  30642.  
  30643.  
  30644.        The British Computer Society Parallel Processing Specialist Group
  30645.  
  30646.  
  30647. Booking Form/Invoice                                  BCS VAT No. : 440-3490-76
  30648.  
  30649.  
  30650. Please reserve a place at the Conference on General Purpose Parallel Computing,
  30651. London, December 22 1993, for the individual(s) named below.
  30652.  
  30653.  
  30654. Name of delegate        BCS membership no.       Fee      VAT      Total
  30655.                          (if  applicable)
  30656. ___________________________________________________________________________
  30657.  
  30658. ___________________________________________________________________________
  30659.  
  30660. ___________________________________________________________________________
  30661.  
  30662.  
  30663. Cheques, in pounds sterling, should be made payable to "BCS Parallel Processing
  30664. Specialist Group".  Unfortunately credit card bookings cannot be accepted.
  30665.  
  30666.  
  30667. The delegate fees (including lunch, refreshments and proceedings) are 
  30668. (in pounds sterling) :
  30669.  
  30670.      Members of both PPSG & BCS:   55  +  9.62  VAT  =  64.62
  30671.      PPSG or BCS members:          70  +  12.25 VAT  =  82.25
  30672.      Non members:                  90  +  15.75 VAT  = 105.75
  30673.      Full-time students:           25  +   4.37 VAT  =  29.37
  30674.  
  30675. (Students should provide a letter of endorsement from their supervisor 
  30676. that also clearly details their institution)
  30677.  
  30678.  
  30679. Contact Address:    ___________________________________________
  30680.  
  30681.                     ___________________________________________
  30682.  
  30683.                     ___________________________________________
  30684.  
  30685. Email address:      _________________
  30686.  
  30687. Date: _________________    Day time telephone: ________________
  30688.  
  30689.  
  30690. Places are limited so please return this form as soon as possible to :
  30691.  
  30692.              Mrs C. Cunningham
  30693.              BCS PPSG
  30694.              2 Mildenhall Close, Lower Earley,
  30695.              Reading, RG6 3AT, UK
  30696.              (Phone 0734 665570)
  30697.  
  30698.  
  30699. -- 
  30700.  
  30701.  
  30702.  
  30703.  
  30704. Approved: parallel@hubcap.clemson.edu
  30705. Follow-up: comp.parallel
  30706. Path: bounce-back
  30707. From: sgregory@cs.sunysb.edu (Stanley Gregory)
  30708. Subject: Arch. for Solving Linear Equations
  30709. Organization: State University of New York, Stony Brook
  30710. Newsgroups: comp.arch,comp.parallel
  30711.  
  30712. Hi. I need information on what the best design would be for a computer
  30713. to solve linear equations. This theoretical machine can have its instruction
  30714. set optimized for this purpose, and its performance should scale well as
  30715. more processors are added.
  30716.  
  30717. Specifically, I need to know where I can find information on processors
  30718. like the one described in the previous paragraph (if any exist).
  30719.  
  30720. Also, I would appreciate it if anyone could point me to where I could find
  30721. LINPACK/LAPACK statistics for various architectures (and for ones optimized
  30722. for solving linear equations).
  30723.  
  30724. Thanks ahead of time to anyone who can help. Please reply via e-mail, as I
  30725. do not get to check these newsgroups very often.
  30726.  
  30727.  
  30728. --
  30729. |sgregor@ic.sunysb.edu |   "...Could be a mirage. Looks rather like a mirage  |
  30730. |----------------------| I once saw -- if I saw it." - Lord Lambourn, from    |
  30731. |sgregory@cs.sunysb.edu| _Yellowbeard_                                        |
  30732. -- 
  30733. |sgregor@ic.sunysb.edu |   "...Could be a mirage. Looks rather like a mirage  |
  30734. |----------------------| I once saw -- if I saw it." - Lord Lambourn, from    |
  30735. |sgregory@cs.sunysb.edu| _Yellowbeard_                                        |
  30736.  
  30737.  
  30738. Approved: parallel@hubcap.clemson.edu
  30739. Follow-up: comp.parallel
  30740. Path: bounce-back
  30741. Newsgroups: comp.parallel
  30742. From: rehmann@cscs.ch (Rene M. Rehmann)
  30743. Subject: Final CFP: IFIP WG10.3 conference on programming environments, Switzerland
  30744. Keywords: CFP,working conference,massive parallelism, programming, tools
  30745. Sender: usenet@cscs.ch (NEWS Manager)
  30746. Nntp-Posting-Host: vevey.cscs.ch
  30747. Reply-To: rehmann@cscs.ch
  30748. Organization: Centro Svizzero di Calcolo Scientifico (CSCS), Manno, Switzerland
  30749.  
  30750.  
  30751.  
  30752.              FINAL
  30753.                             CALL FOR PAPERS
  30754.                            IFIP WG10.3
  30755.                 WORKING CONFERENCE ON
  30756.         PROGRAMMING ENVIRONMENTS FOR 
  30757.                      MASSIVELY PARALLEL DISTRIBUTED SYSTEMS
  30758.  
  30759.                      April 25 - 30, 1994
  30760.         Monte Verita, Ascona, Switzerland
  30761.         
  30762.  
  30763.  
  30764. Massively parallel systems with distributed resources will play a very
  30765. important role for the future of high performance computing.  One of
  30766. the current obstacles of these systems is their difficult programming.
  30767. The proposed conference will bring together active researchers who are
  30768. working on ways how to help programmers to exploit the performance
  30769. potential of massively parallel systems. The working conference will
  30770. consist of sessions for full and short papers, interleaved with poster
  30771. and demonstration sessions.
  30772.  
  30773. The Conference will be held April 25 - 30, 1994 at the Centro Stefano
  30774. Franscini, located in the hills above Ascona at Lago Maggiore, in the
  30775. southern part of Switzerland.  It is organized by the Swiss Scientific
  30776. Computing Center CSCS ETH Zurich. The conference is the forthcoming
  30777. event of the working group WG 10.3 of the International Federation for
  30778. Information Processing (IFIP) on Programming Environments for Parallel
  30779. Computing.  The conference succeeds the 1992 Edinburgh conference on
  30780. Programming Environments for Parallel Computing.
  30781.  
  30782.  
  30783. SUBMISSION OF PAPERS
  30784.  
  30785. Submission of papers is invited in the following areas:
  30786.  
  30787.     -- Programming models for parallel distributed computing
  30788.     -- Computational models for parallel distributed computing
  30789.     -- Program transformation tools
  30790.     -- Concepts and tools for the design of parallel distributed
  30791.          algorithms
  30792.     -- Reusability in parallel distributed programming
  30793.     -- Concepts and tools for debugging massively parallel
  30794.          systems (100+ processing nodes)
  30795.     -- Concepts and tools for performance monitoring of massively
  30796.          parallel systems (100+ processing nodes)
  30797.     -- Tools for application development on massively parallel
  30798.          systems
  30799.     -- Support for computational scientists: what do they really need ?
  30800.     -- Application libraries (e.g., BLAS, etc.) for parallel distributed
  30801.          systems: what do they really offer ?
  30802.     -- Problem solving environments for parallel distributed programming
  30803.  
  30804.  
  30805. Authors are invited to submit complete, original, papers reflecting
  30806. their current research results. All submitted papers will be refereed
  30807. for quality and originality. The program committee reserves the right
  30808. to accept a submission as a long, short, or poster presentation paper.
  30809. The papers will be published in book-form.
  30810.  
  30811. Manuscripts should be double spaced, should include an abstract, and
  30812. should be limited to 5000 words (20 double spaced pages); The contact
  30813. authors are requested to list e-mail addresses if available.  Fax or
  30814. electronic submissions will not be considered.
  30815.  
  30816. Please submit 5 copies of the complete paper to the following address:
  30817.  
  30818. PD Dr. Karsten M. Decker
  30819. IFIP 94
  30820. CSCS-ETH Zurich
  30821. Via Cantonale
  30822. CH-6928 Manno
  30823. Switzerland
  30824.  
  30825.  
  30826. IMPORTANT DATES
  30827.  
  30828. Deadline for submission:     December 1, 1993
  30829. Notification of acceptance:  February 1, 1994
  30830. Final versions:             March 1, 1994
  30831.  
  30832.  
  30833. CONFERENCE CHAIR
  30834.  
  30835. Karsten M. Decker
  30836. CSCS-ETH Zurich
  30837. Via Cantonale
  30838. CH-6928 Manno
  30839. Switzerland
  30840. phone:  +41 (91) 50 8233
  30841. fax:    +41 (91) 50 6711
  30842. e-mail: decker@serd.cscs.ch
  30843.  
  30844.  
  30845. ORGANIZATION COMMITTEE CHAIR
  30846.  
  30847. Rene M. Rehmann
  30848. CSCS-ETH Zurich
  30849. Via Cantonale
  30850. CH-6928 Manno
  30851. Switzerland
  30852. phone:  +41 (91) 50 8234
  30853. fax:    +41 (91) 50 6711
  30854. e-mail: rehmann@serd.cscs.ch
  30855.  
  30856.  
  30857. PROGRAM COMMITTEE
  30858.  
  30859. Francoise Andre, IRISA, France
  30860. Thomas Bemmerl, Intel Corporation, Germany
  30861. Arndt Bode, Technical University Muenchen, Germany
  30862. Helmar Burkhart, University Basel, Switzerland
  30863. Lyndon J. Clarke, University of Edinburgh, UK
  30864. Michel Cosnard, Ecole Normale Superieure de Lyon, France
  30865. Karsten M. Decker, CSCS-ETH Zurich, Switzerland
  30866. Thomas Fahringer, University of Vienna, Austria
  30867. Claude Girault, University P.et M. Curie Paris, France
  30868. Anthony J. G. Hey, University of Southhampton, UK
  30869. Roland N. Ibbett, University of Edinburgh, UK
  30870. Nobuhiko Koike, NEC Corporation, Japan
  30871. Peter B. Ladkin, University of Stirling, UK
  30872. Juerg Nievergelt, ETH Zurich, Switzerland
  30873. Edwin Paalvast, TNO-TPD, The Netherlands
  30874. Gerard Reijns, Delft University of Technology, The Netherlands
  30875. Eugen Schenfeld, NEC Research Institute, USA
  30876. Clemens-August Thole, GMD, Germany
  30877. Owen Thomas, Meiko, UK
  30878. Marco Vanneschi, University of Pisa, Italy
  30879. Francis Wray, Cambridge, UK
  30880.  
  30881.  
  30882. MONTE VERITA, ASCONA, SWITZERLAND
  30883.  
  30884. Centro Stefano Franscini, Monte Verita, located in the scenic hills
  30885. above Ascona, with a beautiful view on Lago Maggiore, has excellent
  30886. conference and housing facilities for about sixty participants.  Monte
  30887. Verita enjoys a sub-alpine/mediterranean climate with mean temperatures
  30888. between 15 and 18 C in April.
  30889.  
  30890. The closest airport to Centro Stefano Franscini is Lugano-Agno which is
  30891. connected to Zurich, Geneva and Basle and many other cities in Europe
  30892. by air. Centro Stefano Franscini can also be reached conveniently by
  30893. train from any of the three major airports in Switzerland to Locarno by
  30894. a few hours scenic trans-alpine train ride. It can also be reached from
  30895. Milano in less than three hours.
  30896.  
  30897. For more information, send email to ifip94@cscs.ch
  30898. For a PostScript-version of the CFP, anon-ftp to:
  30899.     pobox.cscs.ch:/pub/SeRD/IFIP94/CALL_FOR_PAPERS.ps
  30900.  
  30901. Karsten M. Decker, Rene M. Rehmann
  30902.  
  30903. ---
  30904. Rene Rehmann                                    phone:   +41 91 50 82 34
  30905. Section for Research and Development (SeRD)     fax  :   +41 91 50 67 11
  30906. Swiss Scientific Computing Center CSCS          email:   rehmann@cscs.ch
  30907. Via Cantonale, CH-6928 Manno, Switzerland
  30908.  
  30909.  
  30910.  
  30911. Approved: parallel@hubcap.clemson.edu
  30912. Follow-up: comp.parallel
  30913. Path: bounce-back
  30914. Newsgroups: comp.parallel
  30915. From: msodhi@agsm.ucla.edu (Mohan Sodhi)
  30916. Subject: Re: The Future of Parallel Computing
  30917. Organization: UCLA Microcomputer Support Office
  30918. References: <1993Nov9.163338.9165@hubcap.clemson.edu> <1993Nov10.132809.21164@hubcap.clemson.edu>
  30919. Nntp-Posting-Host: risc.agsm.ucla.edu
  30920.  
  30921. >Jeff> PLEASE don't forget about portability.  If the same code can be
  30922. >Jeff> compiled onto multiple architectures, it will make the
  30923. >Jeff> programmer's job MUCH MUCH easier.  (Tune to architecture as
  30924. >Jeff> needed, instead of rewrite from scratch.)
  30925.  
  30926. >I agree 100%.  Look at how serial programs work -- under Unix and
  30927. >derivatives, many programs don't need to be modified to compile for
  30928. >different architectures.  This is especially true of user applications
  30929. >(as opposed to OS-type software).  My hope is that, eventually, people
  30930. >will be able to switch from MPP A to MPP B merely by recompiling all
  30931. >of their code (perhaps with a few changes of #include files or
  30932. >predefined constants).  In order for this to happen, though, the
  30933. >community must realize that a loss of a few percent of performance in
  30934. >exchange for portability and ease of coding and maintenance is
  30935. >acceptable for MPPs.
  30936.  
  30937. The hopes of the authors' above are a little too pie-in-the sky.  For one,
  30938. even for serial computers, porting an application from one operating system
  30939. to another can take _months_ and involve a lot of new code.  Second,
  30940. developing architecture-free algorithms does not mean *no new code* -- it just
  30941. means no new math to be worked out.  I do not think it is possible to
  30942. have a program compile under different architectures (even if the algorithm
  30943. is unchanged) with just a few compiler directives; I am not even sure
  30944. this is desirable.  One thing at a time: let us concentrate on architecture
  30945. free algorithms for now (in my area, operations research, this itself is a
  30946. very new concept!): this will take our minds off the tooth fairy who will
  30947. write a program that will compile under every computer architecture and every
  30948. operating system.
  30949.  
  30950. Mohan Sodhi
  30951. msodhi@agsm.ucla.edu
  30952.  
  30953. Approved: parallel@hubcap.clemson.edu
  30954. Follow-up: comp.parallel
  30955. Path: bounce-back
  30956. Newsgroups: comp.parallel
  30957. From: Murray Cole <mic@dcs.ed.ac.uk>
  30958. Subject: Re: The Future of Parallel Computing
  30959. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  30960. Organization: Department of Computer Science, University of Edinburgh
  30961. References: <1993Nov11.142432.8924@hubcap.clemson.edu> <1993Nov15.154454.14783@hubcap.clemson.edu>
  30962. Date: Mon, 15 Nov 1993 16:55:21 GMT
  30963. Apparently-To: comp-parallel@uknet.ac.uk
  30964.  
  30965. In article <1993Nov15.154454.14783@hubcap.clemson.edu>, dbader@eng.umd.edu (David Bader) writes:
  30966.  
  30967. > You need to look at the "granularity" of a problem to decide whether 
  30968. > it will perform faster on a parallel machine. (For an introduction to
  30969. > granularity, see Stone, "High Performance Computer Architecture", Section 6.2).
  30970. > If your machine is meant for course-grained problems (such as the case you 
  30971. > outline above), you will need to sum "n > N" numbers to see a speedup, where "N"
  30972. > is some large threshold for the given algorithm and machine size.
  30973.  
  30974. That's what I'm getting at. The algorithm is clear and simple, but the peculiarities
  30975. of this machine or that machine mean that I can't be sure if its going to work
  30976. well (even if the underlying network is right), without lifting the lid. This
  30977. seems a little unfortunate. 
  30978.  
  30979. Murray.
  30980.  
  30981. Approved: parallel@hubcap.clemson.edu
  30982. Follow-up: comp.parallel
  30983. Path: bounce-back
  30984. Newsgroups: comp.parallel
  30985. Path: beer
  30986. From: beer@ICSI.Berkeley.EDU (Joachim Beer)
  30987. Subject: summer internships
  30988. Date: 15 Nov 1993 23:55:44 GMT
  30989. Organization: International Computer Science Institute, Berkeley, CA, U.S.A.
  30990. Nntp-Posting-Host: icsib11.icsi.berkeley.edu
  30991.  
  30992.  
  30993. The International Computer Science Institute (ICSI) is soliciting
  30994. applications for their student summer internship program in Europe.
  30995. The program is open to advanced graduate students in computer
  30996. science at American universities.
  30997.  
  30998. Applicants don't need to be U.S. citizens OR
  30999. permanent residents of the U.S. to be eligible for the
  31000. program. The selection process is soley based on merit
  31001. and works roughly as follows: an application is submitted
  31002. to ICSI where an initial selection takes place.
  31003. ICSI does not have special application forms for the summer
  31004. internship program. A cover letter stating the applicants intentions,
  31005. transcripts, and one or two letters of recommendation is sufficient.
  31006. It would also be very helpful if the applicant could provide a short 
  31007. proposal stating what he/she is interested in and the particular
  31008. fields he/she would want to work in.
  31009. The selected applications will be forwarded to those
  31010. participating research labs that best match
  31011. the applicants scientific interest and background.
  31012. Depending on the applicants interest, background, and
  31013. research proposal her/his application might be
  31014. send to several of the research labs. It is the 
  31015. research labs that make the final decision.
  31016.  
  31017. Current sponsor nations are Germany, Italy and Switzerland. 
  31018. ICSI is *not* able to support or process applications for internships
  31019. in non-sponsor nations.
  31020.  
  31021. Graduate students which have been invited by research labs in
  31022. ICSI sponsor nations due to their own initiative or
  31023. existing collaborations can apply for travel grants. However, ICSI
  31024. will not be able to provide financial support beyond travel grants.
  31025.  
  31026. Financial support provided by the hosting research lab is
  31027. approximately $1800 per month for 3 month while ICSI provides
  31028. travel grants up to $1500.
  31029.  
  31030. Submit applications including at least one letter of recommendation,
  31031. a list of completed course work, and a statement of intent to:
  31032.  
  31033.      International Computer Science Institute
  31034.      -Summer Internship Program
  31035.      1947 Center Street, Suite 600
  31036.      Berkley, CA 94704
  31037.  
  31038.  
  31039.      ******************************
  31040.      *                            *
  31041.      *  DEADLINE  March 1, 1994   *
  31042.      *                            *
  31043.      ******************************
  31044.  
  31045. Note: ICSI is only a clearinghouse for summer internship
  31046. applications. ICSI is not able to answer question concerning
  31047. specific research activities within participating research labs.
  31048. In the past summer interns have been working in such areas as
  31049. computer vision, expert systems, knowledge representation, natural
  31050. language processing, software engineering, software tool development,
  31051. etc..
  31052.  
  31053.  
  31054.  
  31055. Approved: parallel@hubcap.clemson.edu
  31056. Follow-up: comp.parallel
  31057. Path: bounce-back
  31058. Newsgroups: comp.parallel
  31059. From: forge@netcom.com (FORGE Customer Support)
  31060. Subject: News from Applied Parallel Research
  31061. Summary: Latest Developments in Parallization Tools from APR
  31062. Organization: Applied Parallel Research, Inc. 
  31063.  
  31064. +=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=
  31065. The Latest News from Applied Parallel Research...
  31066. +=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=+=
  31067.  
  31068. November  1993
  31069.  
  31070. As we enter our third year, we are more excited than ever about the latest
  31071. additions to our FORGE family of products, and the growing number of vendors
  31072. and programmers who are using them.
  31073.  
  31074. =-=-=-=
  31075. MAGIC
  31076. =-=-=-=
  31077. At the top of our list of new things we want to tell you about are our new
  31078. MAGIC batch parallelizers that we are announcing at Supercomputing 93 in
  31079. Portland. FORGE Magic/DM Parallelizer (dpf) for distributed memory is able to
  31080. automatically (automagically?) partition data arrays and distribute loops based
  31081. upon a static analysis of the source program.  Or, you can supply a serial
  31082. timing profile to direct the automatic parallelization right to the hot spots
  31083. in your code. With FORGE Magic/SM (spf) for shared memory systems, data arrays
  31084. are automatically padded and aligned for optimal cache management, and DO loops
  31085. are parallelized by target system compiler-specific directives.
  31086.  
  31087. It would be outrageous of us to claim that our MAGIC technology can
  31088. automatically produce the best parallelization strategy for all applications,
  31089. and we won't. But the one important claim we do make is that it is an incredible
  31090. way to get a first rough sketch at a parallelization. This may be especially
  31091. useful with large, unwieldly codes when, most likely, you would not have a clue
  31092. as to where to begin. A parallelization report shows you in great detail which
  31093. loops parallelized and which data arrays were partitioned, and how this was
  31094. done. More importantly, it shows which loops/arrays could not be parallelized
  31095. and the inhibitors in the program that prevented this. An output option
  31096. annotates the original Fortran 77 program with parallelization directives that
  31097. you can amend to refine the parallelization.
  31098.  
  31099. Our intention with these MAGIC parallelizing pre-compilers is to provide
  31100. facilities similar to what we used to vectorize code not too long ago.
  31101. Each can be used to generate instrumented programs for serial runtime
  31102. execution timing.  FORGE Magic/DM (dpf) can also instrument the generated
  31103. parallelized code to produce parallel runtime performance profiles that
  31104. identify communication bottlenecks and losses due to poor load balancing.
  31105.  
  31106. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  31107. High Performance Fortran, HPF
  31108. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  31109. Our new FORGE HPF batch pre-compiler, xhpf, is now available with an optional
  31110. MAGIC automatic parallelization mode as well.  xhpf with MAGIC  is able to take
  31111. a serial Fortran 77 program and automatically generate a parallelized code with
  31112. Fortran 90 array syntax and HPF directives. Our HPF pre-compiler has a number
  31113. of capabilities that may prove invaluable. For example, the HPF consistency
  31114. checker assures that the parallelization directives you supply are legal HPF
  31115. and are consistent with themselves and the program. Also the parallelization is
  31116. viewable from our interactive FORGE/DMP Parallelizer through is compatible
  31117. database. And, if your target system does not yet have an HPF compiler, xhpf,
  31118. like dpf, will generate a SPMD Fortran 77 code with explicit message passing
  31119. calls interfacing to PVM, Express, Linda, etc.
  31120.  
  31121. You may know that other companies are struggling right now to provide HPF
  31122. compilers on a number of systems. However, we can report the following
  31123. regarding APRs HPF tools:
  31124.  
  31125. *   They are available today.
  31126.  
  31127. *   We generate efficient Fortran 77 code from the HPF that is immediately
  31128.     compilable and optimizable by most native f77 compilers.
  31129.  
  31130. *   We parallelize Fortran DO loops as well as Fortran 90 array syntax.
  31131.     (HPF compilers only parallelize array syntax.)
  31132.  
  31133. *   MAGIC on xhpf will generate an initial HPF parallelization
  31134.     automatically for you to start with.
  31135.  
  31136. *   You can review and analyze the parallelization with our FORGE/DMP
  31137.     interactive tool.
  31138.  
  31139. *   You can instrument the parallel code and obtain a parallel runtime
  31140.     performance profile that includes measurement of all communication 
  31141.     costs and bottlenecks.
  31142.  
  31143. *   With our unique parallel runtime library, we can interface to all major
  31144.     multiprocessor systems and workstation clusters running PVM, Express, 
  31145.     Linda, IBM EUI, nCUBE, Intel NT, you name it!.
  31146.  
  31147. We welcome the opportunity to demonstrate our HPF capabilities to you if you
  31148. give us a call.
  31149.  
  31150. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  31151. FORGE Motif GUI Fortran Explorer
  31152. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  31153. Another major development is the release of our first interactive product to
  31154. utilize the Motif graphic user interface. FORGE Explorer, based upon the FORGE
  31155. Baseline Browser, is now available on IBM RS/6000, DEC Alpha, and HP
  31156. workstations supporting the Motif GUI.  It presents an easy to use and mostly
  31157. intuitive approach to interprocedural program data and control flow analysis,
  31158. tracing, and global context searching. We are moving to transform all FORGE
  31159. interactive products into the world of Motif by the end of next year. FORGE
  31160. Explorer is actually fun to use... you've got to see it!
  31161.  
  31162. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  31163. Advanced Shared Memory Parallelizers
  31164. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  31165. The last area of product development wed like to mention is the release of
  31166. advanced, new shared memory parallelizers that are able to optimize program
  31167. cache management by padding and alignment of global arrays automatically.  We
  31168. also have developed a Global Index Reordering (GIR) restructurer that can make
  31169. a positive gain on performance by automatically reordering the indices of
  31170. arrays in inner loops to eliminate inappropriate striding through memory. This
  31171. restructuring, which is so tedious and error prone when attempted by hand, can
  31172. render a successful parallelization out of a marginal performer.
  31173.  
  31174. =-=-=-=-=-=-=-=
  31175. Vendor Support
  31176. =-=-=-=-=-=-=-=
  31177. A growing number of supercomputing vendors are now actively supporting the
  31178. ongoing development of APRs products for their shared and distributed memory
  31179. multiprocessor systems: IBM (SP1, Power/4, and RS/6000 clusters), Fujitsu
  31180. (VPP500), Intel (Paragon), nCUBE, HP, DEC, Cray Computers (Cray 3).  We also
  31181. offer our products directly to end users of SGI, Cray Research, and Convex
  31182. systems.
  31183.  
  31184. =-=-=-=-=
  31185. Further!
  31186. =-=-=-=-=
  31187. We look forward to a new year of challenges to provide the ultimate tools for
  31188. parallel processing, and hope to be speaking with you soon.  If you will be 
  31189. attending SuperComputing 93 in Portland, stop by and say hello and catch a
  31190. demonstration of these products -- we will be in booth 401.
  31191.  
  31192.  
  31193.  
  31194.                    John Levesque, President, Applied Parallel Research, Inc.
  31195.                                                         ...for the APR Staff
  31196.  
  31197.  
  31198.                                              Applied Parallel Research, Inc.
  31199.                                                        550 Main St., Suite I
  31200.                                                        Placerville, CA 95667
  31201.                                                                 916/621-1600
  31202.  
  31203.                                                             forge@netcom.com
  31204.  
  31205. -- 
  31206.  ///  Applied  ///     FORGE 90 Customer Support Group
  31207.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  31208.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  31209.  
  31210.  
  31211. Approved: parallel@hubcap.clemson.edu
  31212. Follow-up: comp.parallel
  31213. Path: bounce-back
  31214. Newsgroups: comp.parallel
  31215. From: forge@netcom.com (FORGE Customer Support)
  31216. Subject: Automatic Parallelization News Release
  31217. Summary: APR Announces Automatic Parallelization Tools for Fortran
  31218. Keywords: Automatic Parallelization Fortran
  31219. Organization: Applied Parallel Research, Inc. 
  31220.                                                   ..November 11, 1993
  31221. NEWS RELEASE
  31222.  
  31223. Applied Parallel Research, Inc. 
  31224. 550 Main St., Suite I Placerville, CA 95667 
  31225. Robert Enk, Sales and Marketing (301) 718-3733, Fax: (301) 718-3734
  31226. -----------------------------------------------------------------------
  31227.  
  31228. FOR IMMEDIATE RELEASE
  31229.  
  31230. Applied Parallel Research announces the addition of two revolutionary
  31231. products to the FORGE family of parallelization tools for Fortran and
  31232. significant enhancements to its current set of products.
  31233.  
  31234. Placerville, California, USA, November 11, 1993  -- 
  31235. Applied Parallel Research Inc. (APR) announces its MAGIC series of
  31236. automatic parallelizing pre-compilers, FORGE Magic/DM for distributed
  31237. memory systems and clustered workstations, and FORGE Magic/SM for shared
  31238. memory parallel systems.  Together these products represent the
  31239. state-of-the-art in parallelization technology and take a giant step
  31240. forward in providing development tools critical to the successful
  31241. utilization of parallel processing systems.
  31242.  
  31243. Magic/DM represents the first production quality automatic parallelization
  31244. facility for distributed memory systems.  Sophisticated interprocedural
  31245. analysis allows Magic/DM to automatically identify the most significant
  31246. loops within a program and to develop a parallelization strategy based
  31247. upon those loops and the arrays they reference.  On Initial benchmarks,
  31248. Magic/DM has generated parallel code that achieves 80% of the performance
  31249. obtained from hand parallelization.
  31250.  
  31251. Optionally, Magic/DM can create an output file that is the original
  31252. Fortran code with APR parallelization directives strategically embedded in
  31253. the program.  A detailed parallelization report is also available which
  31254. describes for the programmer which arrays were partitioned and how the
  31255. loops were parallelized, and, most importantly, indicates where
  31256. parallelization could not be accomplished and what inhibitors are causing
  31257. the problem.  This output forms the basis of a first parallelization which
  31258. the programmer can further refine through the use of parallel statistics
  31259. gathering and APR Directives.
  31260.  
  31261. Dan Anderson of the National Center for Atmospheric Research said, "This is
  31262. just what our users need, a useable tool that not only parallelizes as
  31263. much as possible, but also generates useful diagnostics that can be used
  31264. to hand tune the application."
  31265.  
  31266. Magic/SM is also an automatic batch parallelization tool but directed
  31267. towards multi CPU shared memory systems.  Magic/SM automatically analyzes
  31268. candidate loops for parallelization and annotates the original program
  31269. with the target systems compiler specific directives.  It also produces a
  31270. detailed parallelization report which can be used for further refinement
  31271. of the parallelization.
  31272.  
  31273. APR's HPF Compilation System, xHPF, has been enhanced to include an Auto
  31274. Parallelization option.  A user is now able to input a Fortran 77 program
  31275. with optional sequential timing information to xHPF and generate a
  31276. parallelized source file with Fortran 90 array syntax and HPF directives.
  31277. This facility allows organizations that might standardize on HPF to
  31278. convert their existing Fortran 77 programs to HPF without expensive and
  31279. time consuming hand conversion.
  31280.  
  31281. John Levesque, President of Applied Parallel Research said, "With the
  31282. addition of these automatic parallelization products and enhancements, APR
  31283. is able to offer the most complete and sophisticated set of Fortran
  31284. parallelization tools in the industry.  The FORGE Magic products provide
  31285. the same ease of use for parallel computing systems that vectorizing
  31286. compilers and pre-compilers have provided to users of vector machines.
  31287. APR's combination of batch and interactive products can now address the
  31288. needs of first time parallel system users as well as seasoned parallel
  31289. programmers."
  31290.  
  31291. APR's source code browser, FORGE Baseline has been enhanced and redesignated
  31292. FORGE Explorer.  FORGE Explorer is APR's first product to utilize the Motif
  31293. graphic user interface and has been significantly restructured for ease of
  31294. use in providing control flow information, variable usage and context
  31295. sensitive query functions.
  31296.  
  31297. Information on APR's product can be obtained by contacting Robert Enk, VP
  31298. of Sales and Marketing at (301) 718-3733 or by E-mail at enk@netcom.com.
  31299. -- 
  31300.  ///  Applied  ///     FORGE 90 Customer Support Group
  31301.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  31302.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  31303.  
  31304.  
  31305. Approved: parallel@hubcap.clemson.edu
  31306. Follow-up: comp.parallel
  31307. Path: bounce-back
  31308. Newsgroups: comp.parallel
  31309. From: edwin@dutind2.twi.tudelft.nl (Edwin Vollebregt)
  31310. Subject: Re: The Future of Parallel Computing
  31311. Organization: Delft University of Technology
  31312. References: <1993Nov11.142432.8924@hubcap.clemson.edu> <1993Nov15.154454.14783@hubcap.clemson.edu>
  31313.  
  31314. Hello 
  31315.  
  31316. This thread about the future of parallel computation has been going on for
  31317. a while. I have heard many good arguments coming along. Let me give my 
  31318. opinion, where I borrow a lot from the latest replies that I saved. Excuse
  31319. me for not knowing who said what, and excuse me if I explain words precisely
  31320. how you NOT meant them.
  31321.  
  31322. I think the discussion was started as follows:
  31323.  
  31324. >    We are now in an age when the high performance machines have
  31325. > various data network topologies, i.e. meshes, torii, linear arrays,
  31326. > vector processors, hypercubes, fat-trees, switching networks, etc..
  31327. > etc.. These parallel machines might all have sexy architectures, but
  31328. > we are headed in the wrong direction if we don't take a step back and
  31329. > look at the future of our work.  We shouldn't have to rewrite our
  31330.                                      ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  31331. > algorithms from scratch each time our vendor sells us the latest
  31332. > hardware with amazing benchmarks.  
  31333.  
  31334. Very good point. IMHO, the low portability is partially the result of a lack
  31335. of uniform programming model, tools, languages and communication interfaces.
  31336.  
  31337. > My hope is that, eventually, people will be able to switch from MPP A 
  31338. > to MPP B merely by recompiling all of their code (perhaps with a few 
  31339. > changes of #include files or predefined constants).  
  31340.  
  31341. This might be possible to some extent when standard interfaces arise.
  31342. However, I think that it cannot be achieved completely, as I'll explain below.
  31343.  
  31344. > In order for this to happen, though, the community must realize that a 
  31345. > loss of a few percent of performance in exchange for portability and ease 
  31346. > of coding and maintenance is acceptable for MPPs.
  31347.  
  31348. This argument has also been given by others:
  31349.  
  31350. > The goal of compiling for parallel code should NOT necessarily be "the 
  31351. > best possible code;" it should be "reasonably close to the best possible 
  31352. > code."
  31353.  
  31354. In future, when parallelizing compilers are much better than nowadays, we
  31355. can expect that only a few percent of performance is lost by relying on them.
  31356.  
  31357. We now come to my contribution to the discussion. My point is that in 
  31358. scientific computing, there is much freedom in choosing an algorithm. There
  31359. are many ways to calculate a result. Furthermore, there are large differences
  31360. in parallelism between algorithms. Some algorithms are well suited for 
  31361. parallel processing, others not. And no compiler can ever do anything about
  31362. that. Finally there is a large influence of architecture on parallelism.
  31363. Thus the parallelism in an algorithm possibly cannot be exploited on MPP A.
  31364.  
  31365. I read part of this point also in other replies:
  31366.  
  31367. > A computational scientist has to know his computer sufficiently well 
  31368. > to make it produce results (nearly) as efficiently as possible.  The 
  31369. > scientist will have to push his methods (i.e., codes) whenever he 
  31370. > acquires a new hot box.  ...
  31371. > I believe there is no excuse for ignoring the hardware you use for
  31372. > scientific computing.  ...
  31373. > A corollary is that "black-box" usage of codes or compilers in scientific 
  31374. > computing will often be poor use of resources.
  31375.  
  31376. A computational scientist must know which algorithm is suitable for his
  31377. architecture, and should tune his code to the architecture.
  31378. Thus I disagree with:
  31379.  
  31380. > A few replies to this thread have taken the line that scientific 
  31381. > computing is quite happy to have to 'streamline code', or in other
  31382.                             ^^^^^^^^^^^^^
  31383. > words hack routines in assembly language.
  31384.  ^^^^^^^
  31385.  
  31386. Streamline code IMHO means ``use an algorithm that is suitable for the 
  31387. architecture at hand''.
  31388.  
  31389. In conclusion:
  31390.  
  31391. > I think the time has come for software engineering to catch up with 
  31392. > hardware engineering in the parallel computing world. 
  31393.  
  31394. There is much need for standards. Programming languages, communication
  31395. libraries, memory models,.. There is also much need for parallelizing
  31396. compilers that (semi-) automatically distribute tasks, generate communi-
  31397. cation statements, and that are quite good in getting the best performance
  31398. out of an algorithm on a specific architecture.
  31399.  
  31400. Finally, comutational scientists should realize which parts of their 
  31401. algorithms are not well suited for an architecture. In the design of new
  31402. applications, they should realize which parts are most likely to change
  31403. when a new architecture becomes available, and should keep these parts
  31404. well separated from other parts of the program.
  31405.  
  31406. >  Please let me know what you think,
  31407.                         Edwin
  31408.  _________________________________________________________________________ 
  31409. |                            |                                 |          |
  31410. | Ir. Edwin A.H. Vollebregt  |  Section of Applied Mathematics |    ,==.  |
  31411. |                            |  Delft University of Technology |   /@  |  |
  31412. | phone +31(0)15-785805      |  Mekelweg 4                     |  /_  <   |
  31413. | edwin@pa.twi.tudelft.nl    |  2628 CD Delft                  |  =" `g'  |
  31414. |                            |     The Netherlands             |          |
  31415. |____________________________|_________________________________|__________|
  31416.  
  31417.  
  31418.  
  31419. Approved: parallel@hubcap.clemson.edu
  31420. Follow-up: comp.parallel
  31421. Path: bounce-back
  31422. Newsgroups: news.announce.conferences,comp.arch,comp.sys.super
  31423. From: nakasima@kuis.kyoto-u.ac.jp (Hiroshi Nakashima)
  31424. Subject: ICS'94: email address for architecture track submission
  31425. Sender: news@kuis.kyoto-u.ac.jp
  31426. Reply-To: nakasima@kuis.kyoto-u.ac.jp
  31427. Organization: Dept. of Info. Sci., Kyoto Univ., JAPAN
  31428.  
  31429. Dear (potential) Authors,
  31430.  
  31431. In the CFP of ICS'94 (8th ACM International Conference on
  31432. Supercomputing), it is announced that "tomita@kuis.kyoto-u.ac.jp" is
  31433. the e-mail adddress for the submission of papers on architecture.
  31434. However, we would like to ask you authors to send your papers to:
  31435.  
  31436.     ics94arc@kuis.kyoto-u.ac.jp
  31437.  
  31438. so that we can pick up submission mails easily.
  31439.  
  31440. We also ask you to attach information for contact to PS manuscript,
  31441. preferably in the enclosed format.
  31442.  
  31443. Best Regards,
  31444.  
  31445. Prof. Shinji Tomita            Prof. Hiroshi Nakashima
  31446. Vice Program Chair (Architecture)    Dept. of Information Science
  31447. Dept. of Information Science        Kyoto University
  31448. Kyoto University
  31449. ---
  31450. % Fill the following and attach it to PS manuscript, and send them
  31451. % together to ics94arc@kuis.kyoto-u.ac.jp
  31452. %
  31453. \title{}        % title of the paper
  31454. \authors{}{}        % author's name and affiliation
  31455. %            % if two or more authors, duplicate this entry like;
  31456. %            % \authors{1st author's name}{1st author's affi.}
  31457. %            % \authors{2nd author's name}{1st author's affi.}
  31458. %            %    :
  31459. %            % \authors{n-th author's name}{n-th author's affi.}
  31460. \name{}            % name of the person for further contact
  31461. \zip{}            % zip code and/or country name
  31462. \address{}        % surface mail address
  31463. \organization{}        % organization name
  31464. \section{}        % section name
  31465. \tel{}            % phone number
  31466. \fax{}            % facsimile number
  31467. \email{}        % e-mail address
  31468. %
  31469. % The following is an example
  31470. % \title{The Architecture of a Massively Parallel Computer}
  31471. % \authors{Shinji Tomita}{Kyoto Univ.}
  31472. % \authors{Hiroshi Nakashima}{Kyoto Univ.}
  31473. % \name{Shinji Tomita}
  31474. % \zip{606-01, JAPAN}
  31475. % \address{Yoshida Hon-Machi, Sakyou-Ku, Kyoto}
  31476. % \organization{Kyoto University}
  31477. % \section{Dept. of Information Science}
  31478. % \tel{+81-75-753-5373}
  31479. % \fax{+81-75-753-5379}
  31480. % \email{tomita@kuis.kyoto-u.ac.jp}
  31481.  
  31482. Approved: parallel@hubcap.clemson.edu
  31483. Follow-up: comp.parallel
  31484. Path: bounce-back
  31485. Newsgroups: comp.parallel
  31486. From: TRACS Team <tracs@epcc.edinburgh.ac.uk>
  31487. Subject: Opportunities for Research Visits to Edinburgh
  31488. Organization: Edinburgh Parallel Computing Centre
  31489.  
  31490. **********************************************************************
  31491. **********************************************************************
  31492. **                                                                  **
  31493. **                                                                  **
  31494. **    TRACS: Training and Research on Advanced Computing Systems    **
  31495. **                                                                  **
  31496. **                                                                  **
  31497. **********************************************************************
  31498. **********************************************************************
  31499.  
  31500. Edinburgh Parallel Computing Centre is coordinating an EC-funded
  31501. project to bring European researchers for short visits to associated
  31502. departments in Edinburgh to collaborate on projects involving High
  31503. Performance Computing~(HPC). 
  31504.  
  31505. TRACS provides:
  31506.  
  31507.   * opportunities to visit and work in Edinburgh 
  31508.  
  31509.   * access to a wide range of HPC systems, including 
  31510.  
  31511.         + Thinking Machines CM-200
  31512.         + Meiko CS-2 
  31513.         + Meiko I860 Computing Surfaces
  31514.         + Meiko T800 Computing Surface
  31515.         + Sun/SGI Workstation cluster
  31516.  
  31517.   * training, support and consultancy on parallel computing
  31518.  
  31519.   * accommodation, travel and subsistence expenses
  31520.  
  31521. TRACS is open to both academic and industrial researchers resident in
  31522. EC and EFTA countries. Application forms and further information are
  31523. available both in electronic (latex/dvi) and paper formats and can
  31524. be obtained from:
  31525.  
  31526.                     TRACS Administrative Secretary
  31527.                     EPCC
  31528.                     James Clerk Maxwell Building
  31529.                     University of Edinburgh
  31530.                     Edinburgh      EH9 3JZ
  31531.                     United Kingdom
  31532.  
  31533.                     Tel: +44 31 650 5986
  31534.                     Fax: +44 31 650 6555
  31535.                     Email: TRACSadmin@ed.ac.uk
  31536.  
  31537. Please note that the closing date for applications to the next
  31538. Scientific Users Selection Panel meeting is 4th January 1993.
  31539.  
  31540.  
  31541. Newsgroups: comp.parallel.pvm,comp.graphics,comp.graphics.research,comp.graphics.visualisation
  31542. Path: epcc.ed.ac.uk!tracs
  31543. From: TRACS Team <tracs@epcc.edinburgh.ac.uk>
  31544. Subject: Opportunities for Research Visits to Edinburgh
  31545. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  31546. Organization: Edinburgh Parallel Computing Centre
  31547. Date: Tue, 16 Nov 1993 11:20:35 GMT
  31548. Apparently-To: comp-parallel@uknet.ac.uk
  31549.  
  31550. **********************************************************************
  31551. **********************************************************************
  31552. **                                                                  **
  31553. **                                                                  **
  31554. **    TRACS: Training and Research on Advanced Computing Systems    **
  31555. **                                                                  **
  31556. **                                                                  **
  31557. **********************************************************************
  31558. **********************************************************************
  31559.  
  31560. Edinburgh Parallel Computing Centre is coordinating an EC-funded
  31561. project to bring European researchers for short visits to associated
  31562. departments in Edinburgh to collaborate on projects involving High
  31563. Performance Computing~(HPC). 
  31564.  
  31565. TRACS provides:
  31566.  
  31567.   * opportunities to visit and work in Edinburgh 
  31568.  
  31569.   * access to a wide range of HPC systems, including 
  31570.  
  31571.         + Thinking Machines CM-200
  31572.         + Meiko CS-2 
  31573.         + Meiko I860 Computing Surfaces
  31574.         + Meiko T800 Computing Surface
  31575.         + Sun/SGI Workstation cluster
  31576.  
  31577.   * training, support and consultancy on parallel computing
  31578.  
  31579.   * accommodation, travel and subsistence expenses
  31580.  
  31581. TRACS is open to both academic and industrial researchers resident in
  31582. EC and EFTA countries. Application forms and further information are
  31583. available both in electronic (latex/dvi) and paper formats and can
  31584. be obtained from:
  31585.  
  31586.                     TRACS Administrative Secretary
  31587.                     EPCC
  31588.                     James Clerk Maxwell Building
  31589.                     University of Edinburgh
  31590.                     Edinburgh      EH9 3JZ
  31591.                     United Kingdom
  31592.  
  31593.                     Tel: +44 31 650 5986
  31594.                     Fax: +44 31 650 6555
  31595.                     Email: TRACSadmin@ed.ac.uk
  31596.  
  31597. Please note that the closing date for applications to the next
  31598. Scientific Users Selection Panel meeting is 4th January 1993.
  31599.  
  31600.  
  31601. To: comp-parallel@agate.berkeley.edu
  31602. Path: beer
  31603. From: beer@ICSI.Berkeley.EDU (Joachim Beer)
  31604. Newsgroups: comp.ai,comp.arch,comp.databases,comp.misc,comp.multimedia,comp.robotics,comp.speech,comp.programming,comp.object,comp.software-eng,ucb.grads
  31605. Subject: summer internships
  31606. Date: 15 Nov 1993 23:55:44 GMT
  31607. Organization: International Computer Science Institute, Berkeley, CA, U.S.A.
  31608. Nntp-Posting-Host: icsib11.icsi.berkeley.edu
  31609.  
  31610.  
  31611. The International Computer Science Institute (ICSI) is soliciting
  31612. applications for their student summer internship program in Europe.
  31613. The program is open to advanced graduate students in computer
  31614. science at American universities.
  31615.  
  31616. Applicants don't need to be U.S. citizens OR
  31617. permanent residents of the U.S. to be eligible for the
  31618. program. The selection process is soley based on merit
  31619. and works roughly as follows: an application is submitted
  31620. to ICSI where an initial selection takes place.
  31621. ICSI does not have special application forms for the summer
  31622. internship program. A cover letter stating the applicants intentions,
  31623. transcripts, and one or two letters of recommendation is sufficient.
  31624. It would also be very helpful if the applicant could provide a short 
  31625. proposal stating what he/she is interested in and the particular
  31626. fields he/she would want to work in.
  31627. The selected applications will be forwarded to those
  31628. participating research labs that best match
  31629. the applicants scientific interest and background.
  31630. Depending on the applicants interest, background, and
  31631. research proposal her/his application might be
  31632. send to several of the research labs. It is the 
  31633. research labs that make the final decision.
  31634.  
  31635. Current sponsor nations are Germany, Italy and Switzerland. 
  31636. ICSI is *not* able to support or process applications for internships
  31637. in non-sponsor nations.
  31638.  
  31639. Graduate students which have been invited by research labs in
  31640. ICSI sponsor nations due to their own initiative or
  31641. existing collaborations can apply for travel grants. However, ICSI
  31642. will not be able to provide financial support beyond travel grants.
  31643.  
  31644. Financial support provided by the hosting research lab is
  31645. approximately $1800 per month for 3 month while ICSI provides
  31646. travel grants up to $1500.
  31647.  
  31648. Submit applications including at least one letter of recommendation,
  31649. a list of completed course work, and a statement of intent to:
  31650.  
  31651.      International Computer Science Institute
  31652.      -Summer Internship Program
  31653.      1947 Center Street, Suite 600
  31654.      Berkley, CA 94704
  31655.  
  31656.  
  31657.      ******************************
  31658.      *                            *
  31659.      *  DEADLINE  March 1, 1994   *
  31660.      *                            *
  31661.      ******************************
  31662.  
  31663. Note: ICSI is only a clearinghouse for summer internship
  31664. applications. ICSI is not able to answer question concerning
  31665. specific research activities within participating research labs.
  31666. In the past summer interns have been working in such areas as
  31667. computer vision, expert systems, knowledge representation, natural
  31668. language processing, software engineering, software tool development,
  31669. etc..
  31670.  
  31671.  
  31672.  
  31673. Approved: parallel@hubcap.clemson.edu
  31674. Follow-up: comp.parallel
  31675. Path: bounce-back
  31676. Newsgroups: comp.parallel
  31677. From: martens@cis.ohio-state.edu (Jeff Martens)
  31678. Subject: Optical Switching Speed?
  31679. Organization: Ohio State U. Dept. of Computer Science
  31680.  
  31681.  
  31682. I know that there are various factors affecting electronic
  31683. switching speed as a function of wire length.  What I want to know
  31684. is, other than the speed of light, are there any limits to optical
  31685. switching speeds that vary with the distance of the link?
  31686. References would be especially appreciated.
  31687.  
  31688. I'll summarize to the net if there's interest.  Thanks in advance.
  31689.  
  31690. -- 
  31691.  
  31692.      "The superfluous is very necessary." -- Voltaire
  31693.  
  31694. -- Jeff (martens@cis.ohio-state.edu)
  31695.  
  31696. Approved: parallel@hubcap.clemson.edu
  31697. Follow-up: comp.parallel
  31698. Path: bounce-back
  31699. Newsgroups: comp.parallel
  31700. From: drg@cs.city.ac.uk (David Gilbert)
  31701. Subject: Workshop on concurrency in computational logic : extended deadline
  31702. Date: 16 Nov 1993 15:44:02 -0000
  31703. Organization: Computer Science Dept, City University, London
  31704.  
  31705.  
  31706.                  Workshop on concurrency in computational logic
  31707.  
  31708.                                December 13 1993
  31709.                   Department of Computer Science, City University,
  31710.                              London, United Kingdom
  31711.  
  31712.             EXTENDED  DEADLINE : 30 NOVEMBER 1993
  31713.  
  31714. (1) PLEASE NOTE THAT THE DEADLINE FOR CONTRIBUTIONS FOR THIS WORKSHOP
  31715. HAS BEEN EXTENDED TO 30 NOVEMBER 1993
  31716.  
  31717. (2) ACCOMMODATION DETAILS BELOW
  31718.  
  31719. (3) REGISTRATION DETAILS BELOW
  31720.  
  31721. (4) LOCATION DETAILS BELOW
  31722.  
  31723.  +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  31724.  
  31725. (1) 
  31726.  
  31727. Concurrency is a seminal topic in computer science, and is a research area
  31728. of growing importance in the computational logic community.  The
  31729. methodologies required to describe, reason about and construct such
  31730. systems encompass a wide range of viewpoints and some are still quite
  31731. recent in origin. It is the aim of this workshop to collect researchers
  31732. together in order to facilitate the exchange of ideas on concurrency in
  31733. computational logic. Contributions are invited on the following topics:
  31734.  
  31735. * system specification
  31736. * semantics and theory 
  31737. * language design
  31738. * programming methodologies
  31739. * program analysis and transformation
  31740. * programming environments
  31741.  
  31742. Submissions can be extended abstracts or full papers, and should be
  31743. limited to 15 pages.  Electronic submission is preferred, as either LaTeX
  31744. source or encapsulated postscript.  Research students are particularly
  31745. encouraged to make informal presentations of their research activities,
  31746. based around a brief abstract, or to submit contributions for a poster
  31747. display. 
  31748.  
  31749. Submissions should be sent to the following address and should be received
  31750. by 31 October 1993
  31751.  
  31752. Dr. D. Gilbert
  31753. Department of Computer Science,
  31754. City University
  31755. Northampton Square
  31756. London EC1V 0HB
  31757. UK
  31758.  
  31759. email: drg@cs.city.ac.uk
  31760.  
  31761. Proceedings will be distributed on an informal basis at the workshop to
  31762. encourage presentation of ongoing work. However, it is intended that selected
  31763. papers will be published in formal proceedings after the workshop.
  31764.  
  31765. This workshop is organised jointly by City University and the
  31766. University of Namur under the auspices of the Association of Logic
  31767. Programming (UK), the British Council (UK), and the Commissariat
  31768. General aux Relations Internationales (Belgium).
  31769.  
  31770. Programme committee:
  31771.  
  31772. Koen De Bosschere, University of Gent, Belgium
  31773. David Gilbert, City University, UK
  31774. Jean-Marie Jacquet, University of Namur, Belgium
  31775. Luis Monteiro, University of Lisbon, Portugal
  31776. Catuscia Palamidessi, University of Genova, Italy
  31777. Jiri Zlatuska, Masaryk University, Czech Republic
  31778.  
  31779.  
  31780. Important dates:
  31781.  
  31782. Deadline for paper submission: 30 November 1993
  31783.  
  31784. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  31785.  
  31786. (2) Accommodation Details
  31787.  
  31788. Accommodation is available in the University Halls of residence at a
  31789. cost of 19 pounds (ordinary room) or 26 pounds (superior room) per
  31790. night per person, bed and breakfast.  You should contact the Halls directly in
  31791. order to make your booking; the details are:
  31792.  
  31793. (a)
  31794. Finsbury Residences
  31795. Bastwick Street
  31796. London EC1Y 3PE
  31797. UK
  31798.  
  31799. Tel: +44 71 251 4961
  31800. Fax: +44 71 608 2741
  31801.  
  31802.  
  31803. (b)
  31804. Northampton Hall
  31805. Bunhill Row
  31806. London EC1Y 8LJ
  31807. UK
  31808.  
  31809. Tel: +44 71 628 2953
  31810. Fax: +44 71 374 0653
  31811.  
  31812.  +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  31813.  
  31814. (3)  Registration details
  31815.  
  31816.         Workshop on concurrency in computational logic
  31817.  
  31818.                                December 13 1993
  31819.                   Department of Computer Science, City University,
  31820.                              London, United Kingdom
  31821.  
  31822.  
  31823.                 REGISTRATION FORM
  31824.  
  31825. THERE IS NO CHARGE FOR ATTENDING THE WORKSHOP
  31826.  
  31827. PLEASE FILL IN AND RETURN BY EMAIL, FAX OR POST TO:
  31828.  
  31829. Dr David Gilbert
  31830. Department of Computer Science
  31831. City University,
  31832. Northampton Square,
  31833. London  EC1V 0HB, UK
  31834.  
  31835. tel:    +44-71-477-8444 (direct)
  31836. fax:    +44-71-477-8587
  31837. email:    drg@cs.city.ac.uk
  31838. uucp:    drg@citycs.uucp
  31839.  
  31840. --------------------------------[FORM BEGIN]-----------------------------------
  31841.  
  31842. I wish to attend the Workshop on concurrency in computational logic on
  31843. December 13 1993 at the Department of Computer Science, City University.
  31844.  
  31845.  
  31846. FIRST NAME:
  31847. FAMILY NAME:
  31848. INSTITUTION:
  31849. ADDRESS:
  31850. EMAIL:
  31851. TELEPHONE:
  31852. FAX:
  31853.  
  31854. --------------------------------[FORM END]-------------------------------------
  31855.  
  31856.  +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  31857.  
  31858. FURTHER INFORMATION
  31859.  
  31860. (4) Location details 
  31861.  
  31862. The workshop will be held from 10.00 to 17.00 on Monday 13 December in
  31863. the Senate Suite (Room A537), College Building, City University.
  31864.  
  31865. Further detailed directions can be obtained from David Gilbert (see above).
  31866.  
  31867.  
  31868. -- 
  31869. D R Gilbert                                   tel:    +44-71-477-8444 (direct)
  31870. Department of Computer Science                fax:    +44-71-477-8587
  31871. City University, Northampton Square         email:    drg@cs.city.ac.uk
  31872. London  EC1V 0HB, UK                         uucp:    drg@citycs.uucp
  31873.  
  31874. Approved: parallel@hubcap.clemson.edu
  31875. Follow-up: comp.parallel
  31876. Path: bounce-back
  31877. Newsgroups: comp.parallel,comp.theory
  31878. From: ss7540@csc.albany.edu (SHUKLA SANDEEP)
  31879. Subject: Re: Performance evaluation of distributed algorithms
  31880. Organization: State University of New York at Albany
  31881. References: <1993Nov16.151830.3376@hubcap.clemson.edu>
  31882.  
  31883. In article <1993Nov16.151830.3376@hubcap.clemson.edu> sgarg@egr.duke.edu (Sachin Garg) writes:
  31884.  
  31885.  
  31886. >In performance evaluation of distributed algorithms, people generally
  31887. >talk in terms of time and message complexity. However, in some models
  31888. >of distributed computations (CSP, CCS), which were developed largly
  31889. >for correctness verification, time has been incorporated to obtain
  31890. >"finishing time of a program". It is either a probabilistic study, in which
  31891. >case an expected finishing time is reported or a deterministic study
  31892. >in which "upper or lower bounds" on the performance metric are reported.
  31893.  
  31894.  
  31895. The timed models of CSP or CCS are not aiming at the performance evaluation
  31896. of the Distributed systems. The TCSP and TCCS both aims at incorporating the
  31897. realtime concepts into the models of Computations. For example in the TCSP 
  31898. model the aim is to achieve a proof system to reason about the liveness and 
  31899. safety properties of Distributed systems with timing constraints. 
  31900. The Probabilistic CSP is an extension of the Timed model that not only reasons
  31901. about the timing properties of the sytem also proves properties that hold
  31902. probabilistically.
  31903.  
  31904.  
  31905. A typical quotation by the authors of Timed CSP follows:
  31906.  
  31907. "A unified theory of Concurrency may be developed by adding real time 
  31908. probablility to the models of real time CSP. Such a model will allow
  31909. a proper Universal measure of Fairness,e.g '' Within 3.75 milliseconds,
  31910. there is 93.7% chance that a process will respond''. "
  31911.  
  31912. --- G.M Reed 
  31913.  
  31914. I think that most models like CSP, CCS or the probabilistic UNITY (J.R.Rao)
  31915. when they incorporate time and probability in their models, the basic idea
  31916. is that " It will facilitate the comparison and Unification of many different
  31917. methods presently used to reason about Concurrent systems, and promote a far
  31918. deeper understanding of Concurrency in general."(Reed).
  31919.  
  31920. Approved: parallel@hubcap.clemson.edu
  31921. Follow-up: comp.parallel
  31922. Path: bounce-back
  31923. Newsgroups: comp.parallel
  31924. From: yali@ecn.purdue.edu (Yan Alexander Li)
  31925. Subject: Re: The Future of Parallel Computing
  31926. Organization: Purdue University Engineering Computer Network
  31927. References: <1993Nov11.142432.8924@hubcap.clemson.edu> <1993Nov15.154454.14783@hubcap.clemson.edu> <1993Nov16.165313.15793@hubcap.clemson.edu>
  31928.  
  31929. The discussions of this thread have focused on software vs. hardware issue. 
  31930. The implied architecture is the homogeneous.  I would like to suggest that we
  31931. consider heterogeneous processing also.  Imagine that we can write a application
  31932. without worrying about the architecture.
  31933. The compiler will do the analysis and dispatch different part of the program to
  31934. the component (sub)systems that best suit them.
  31935.  
  31936. A cluster of heterogeneous parallel
  31937. systems tightly coupled by highbandwidth network or simply a heterogeneous
  31938. parallel computer itself can exploit the heterogeneous architecture to cope with
  31939. different characteritics of different part of one application.  This naturally
  31940. brings up the problem of standardization in algorithm description, high
  31941. level language, compiler, OS and other software issues.  It is both hardware and
  31942. software issue, but IMHO the software people may have to make much more effort
  31943. to have this work.
  31944.  
  31945. --
  31946. Alex Li
  31947. Graduate Assistant
  31948. 1285 Electrical Engineering
  31949. Purdue University
  31950. West Lafayette, IN 47907
  31951.  
  31952. yali@ecn.purdue.edu
  31953.  
  31954. Approved: parallel@hubcap.clemson.edu
  31955. Follow-up: comp.parallel
  31956. Path: bounce-back
  31957. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  31958. From: mash@mash.wpd.sgi.com (John R. Mashey)
  31959. Subject: Re: INMOS Information available on T9000
  31960. Organization: Silicon Graphics, Inc.
  31961. References:  <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu>
  31962.  
  31963. In article <1993Nov16.151841.3483@hubcap.clemson.edu>, elwin@media.mit.edu (Lee W Campbell) writes:
  31964. |> For the fun of it I checked it out. What was available was a Q&A and a press
  31965. |> release. I got the press release. It's kind of amusing:
  31966. |> 
  31967. |>           26 March,  1993.    London,  UK.    INMOS  announces  sample
  31968. |>           availability of  the T9000  transputer.   Just  three  years
  31969. |>           after design  commenced, ...
  31970. |> 
  31971. |> Now I *know* I was hearing about this chip in the summer of '91 and
  31972.  
  31973. Hot Chips, August 1991, had a presentation from Richard Forsyth, Bob Krysiak,
  31974. Roget Shepherd on the T9000.
  31975. In this, they say "T9000 available Q1 1992"; obviously things didn't
  31976. work out that way ... but that's not unusual in this business...
  31977.  
  31978. ACtually, as related quesiton, in that same Hot Chips was a description of
  31979. the National Semiconductor Swordfish for embedded applications.
  31980. I haven't heard much of that lately.  CAn anyone shed some light on that one?
  31981.  
  31982.  
  31983. -john mashey    DISCLAIMER: <generic disclaimer, I speak for me only, etc>
  31984. UUCP:    mash@sgi.com 
  31985. DDD:    415-390-3090    FAX: 415-967-8496
  31986. USPS:   Silicon Graphics 6L-005, 2011 N. Shoreline Blvd, Mountain View, CA 94039-7311
  31987.  
  31988.  
  31989.  
  31990.  
  31991. Approved: parallel@hubcap.clemson.edu
  31992. Follow-up: comp.parallel
  31993. Path: bounce-back
  31994. Newsgroups: comp.parallel
  31995. From: DKGCampb@cen.ex.ac.uk
  31996. Subject: Re: The Future of Parallel Computing
  31997. Organization: University of Exeter, UK.
  31998. References: <1993Nov11.142432.8924@hubcap.clemson.edu> <1993Nov15.154454.14783@hubcap.clemson.edu> <1993Nov16.165203.15351@hubcap.clemson.edu>
  31999.  
  32000. In article <1993Nov16.165203.15351@hubcap.clemson.edu> Murray Cole <mic@dcs.ed.ac.uk> writes:
  32001. >In article <1993Nov15.154454.14783@hubcap.clemson.edu>, dbader@eng.umd.edu (David Bader) writes:
  32002. >
  32003. >> You need to look at the "granularity" of a problem to decide whether 
  32004. >> it will perform faster on a parallel machine. (For an introduction to
  32005. >> granularity, see Stone, "High Performance Computer Architecture", Section 6.2).
  32006. >> 
  32007. >> If your machine is meant for course-grained problems (such as the case you 
  32008. >> outline above), you will need to sum "n > N" numbers to see a speedup, where "N"
  32009. >> is some large threshold for the given algorithm and machine size.
  32010. >
  32011. >That's what I'm getting at. The algorithm is clear and simple, but the peculiarities
  32012. >of this machine or that machine mean that I can't be sure if its going to work
  32013. >well (even if the underlying network is right), without lifting the lid. This
  32014. >seems a little unfortunate. 
  32015.  
  32016. But then, if one had a "general" model of parallel computation, all
  32017. machines would be able to be specified in terms of the model.  So,
  32018. performance could be predicted in that way, and portability would be
  32019. provided for.  Hopefully the general model would be efficient enough
  32020. to provide a reasonable level of performance.
  32021.  
  32022. However, if high performance is desired, then knowledge of the
  32023. particular peculiarities of the target architecture, whether it be
  32024. parallel or serial, would be required.  In which case, one has
  32025. "special purpose" computing.
  32026.  
  32027. -- 
  32028. Duncan Campbell                     Acknowledgement:  I'd like to thank me,
  32029. Department of Computer Science                        without whom none of this
  32030. University of Exeter,                                 would have been possible.
  32031. Prince of Wales Road,          
  32032. Exeter  EX4 4PT              Tel:  +44 392 264063  Telex:  42894 EXUNIV G
  32033. United Kingdom               Fax:  +44 392 264067  e-mail: dca@dcs.exeter.ac.uk
  32034.  
  32035.  
  32036. Approved: parallel@hubcap.clemson.edu
  32037. Follow-up: comp.parallel
  32038. Path: bounce-back
  32039. Newsgroups: comp.parallel
  32040. From: dbader@eng.umd.edu (David Bader)
  32041. Subject: Re: The Future of Parallel Computing
  32042. Organization: Professional Student, University of Maryland, College Park
  32043. References: <1993Nov11.142432.8924@hubcap.clemson.edu> <1993Nov15.154454.14783@hubcap.clemson.edu> <1993Nov16.165203.15351@hubcap.clemson.edu>
  32044. Nntp-Posting-Host: pepsi.eng.umd.edu
  32045.  
  32046. In article <1993Nov16.165203.15351@hubcap.clemson.edu> Murray Cole <mic@dcs.ed.ac.uk> writes:
  32047. >In article <1993Nov15.154454.14783@hubcap.clemson.edu>, dbader@eng.umd.edu (David Bader) writes:
  32048. >
  32049. >> You need to look at the "granularity" of a problem to decide whether 
  32050. >> it will perform faster on a parallel machine. (For an introduction to
  32051. >> granularity, see Stone, "High Performance Computer Architecture", Section 6.2).
  32052. >> 
  32053. >> If your machine is meant for course-grained problems (such as the case you 
  32054. >> outline above), you will need to sum "n > N" numbers to see a speedup, where "N"
  32055. >> is some large threshold for the given algorithm and machine size.
  32056. >
  32057. >That's what I'm getting at. The algorithm is clear and simple, but the peculiarities
  32058. >of this machine or that machine mean that I can't be sure if its going to work
  32059. >well (even if the underlying network is right), without lifting the lid. This
  32060. >seems a little unfortunate. 
  32061.  
  32062. Murray, have you looked at Stone's book? A quick review follows.
  32063.  
  32064. Granularity isn't a "peculiarity" of a parallel machine.  It is a
  32065. measure of the ratio of computation time (R) to communication time (C)
  32066. of the hardware. If, for instance, the communication is slow in a
  32067. machine, C is large, making the granularity R/C small.  And vice
  32068. versa; if C is small, then the granularity R/C is large.  A parallel
  32069. machine's compiler obviously must know its physical node hardware, at
  32070. least to obtain as close to optimal data layout as possible, and must
  32071. know the interconnection network.  Therefore, requiring it to know
  32072. something about the granularity is acceptable. 
  32073.  
  32074. The granularity measure is similar to the stopping criterion in a
  32075. recursive algorithm.  The maximum size of an instance of a problem,
  32076. where the time to execute that algorithm on a single processor is
  32077. faster than distributing it onto more than 1 processors, is this
  32078. criterion induced by the granularity.
  32079.  
  32080. Most data parallel algorithms that I have worked with will run
  32081. parallel steps on the input set until reaching this limit. When the
  32082. input is reduced to this problem size, the best known sequential
  32083. algorithm is then used to find the solution.  
  32084.  
  32085. I don't believe that the platform described above requires the user to
  32086. know the intricate details of the hardware.
  32087.  
  32088. Just my thoughts,
  32089. --david
  32090.  
  32091. David A. Bader 
  32092. Electrical Engineering Department
  32093. A.V. Williams Building 
  32094. University of Maryland
  32095. College Park, MD 20742
  32096.  
  32097. Internet: dbader@eng.umd.edu
  32098.  
  32099.  
  32100.  
  32101.  
  32102.  
  32103. Approved: parallel@hubcap.clemson.edu
  32104. Follow-up: comp.parallel
  32105. Path: bounce-back
  32106. Newsgroups: comp.parallel
  32107. From: moorej@research.CS.ORST.EDU (Jason Moore)
  32108. Subject: Re: Need introductory parallel programming book
  32109. Message-ID: <2cbo97INNikk@flop.ENGR.ORST.EDU>
  32110. Date: 16 Nov 93 23:38:15 GMT
  32111. Article-I.D.: flop.2cbo97INNikk
  32112. Posted: Tue Nov 16 15:38:15 1993
  32113. References: <1993Nov11.213044.26194@hubcap.clemson.edu> <1993Nov16.165105.15024@hubcap.clemson.edu>
  32114. Reply-To: moorej@research.CS.ORST.EDU
  32115. Organization: Oregon State University, Computer Science Department
  32116. NNTP-Posting-Host: shale.cs.orst.edu
  32117.  
  32118. |> @book{Quinn,
  32119. |>    author = {Michael J. Quinn},
  32120. |>    address = {New York},
  32121. |>    publisher = {McGraw-Hill},
  32122. |>    title = {Designing Efficient Algorithms for Parallel Computers},
  32123. |>    year = {1987}
  32124.  
  32125. Michael Quinn has a 2nd Edition of the above book called
  32126.  
  32127. Parallel Computing:  Theory and Practice
  32128.  
  32129. It's only been available for a few weeks.  Try it, you'll like it.
  32130.  
  32131. Jason
  32132.  
  32133. -- 
  32134. --------
  32135. Jason Moore                       Internet:  moorej@research.cs.orst.edu
  32136. Department of Computer Science    Bell-net:  (503) 737-4052
  32137. Oregon State University
  32138. "Anything worth doing is worth doing with a smile"
  32139.  
  32140. Approved: parallel@hubcap.clemson.edu
  32141. Follow-up: comp.parallel
  32142. Path: bounce-back
  32143. From: John Corb <root@acid.unitedkingdom.NCR.COM>
  32144. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  32145. Subject: Re: INMOS Information available on T9000
  32146. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu>
  32147. Reply-To: John Corb <root@acid.unitedkingdom.ncr.co.uk>
  32148. Organization: NCR CSSD Network Systems, London
  32149.  
  32150. In article <1993Nov16.151841.3483@hubcap.clemson.edu> elwin@media.mit.edu (Lee W Campbell) writes:
  32151. >In article <1993Nov11.213059.26255@hubcap.clemson.edu>, thompson@inmos.co.uk () writes:
  32152. <deleted>
  32153. >
  32154. >          The T9000  is the world's fastest single-chip computer, with
  32155. >          its 200  MIPS, 25  MFLOPS peak  performance and  its  32-bit
  32156. >          superscalar integer  processor, 64-bit  floating point unit,
  32157. >          virtual channel  processor, 100Mbits/s  communications ...
  32158. >
  32159. >World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  32160. >R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  32161. >how in the hell do they manage to call it "fastest'???
  32162.  
  32163. they used sneaky wording -  "single-chip computer"
  32164.                      ^^^^^^^^
  32165.  
  32166. the alpha, pa-risc etc. are microprocessors, the t9000 is a microcomputer as
  32167. it has cpu+memory+i/o all on chip, so it is a lot faster than 8051, z8 etc.
  32168. (but them so's my pocket calculator :)
  32169.  
  32170. they are trying to hype it as fast and it was the best they could come up with,
  32171. it's a shame 'cos the t9000 is actually quite slick, sad huh?
  32172.  
  32173. -- 
  32174. Net: john.corb@UnitedKingdom.NCR.COM             Manager Network Support
  32175. UUCP: uunet!ncrcom!ncruk!support!acid!john       TEL: +44 71 725 8837
  32176. NIC handle: jc716                       Voice+: 323-5187  FAX: +44 81 446 8269
  32177.         when the going gets weird, the weird turn pro
  32178.  
  32179. Approved: parallel@hubcap.clemson.edu
  32180. Follow-up: comp.parallel
  32181. Path: bounce-back
  32182. Newsgroups: comp.parallel
  32183. From: pkrishna@cs.tamu.edu (P. Krishna)
  32184. Subject: Call For Papers - FTPDS-94
  32185. Organization: Texas A&M Computer Science Department, College Station, TX
  32186.  
  32187.                  CALL FOR PAPERS
  32188.  
  32189.    The 1994 IEEE Workshop on Fault-Tolerant Parallel and Distributed Systems
  32190.  
  32191.            June 13-14, 1994                    College Station, Texas
  32192.  
  32193.                                   Sponsored by
  32194.                              IEEE Computer Society
  32195.                 Technical Committee on Fault-Tolerant Computing
  32196.  
  32197.                               In cooperation with
  32198.                             IFIP Working Group 10.4
  32199.                              Texas A&M University
  32200.  
  32201.                               In conjunction with
  32202.                                     FTCS-24     
  32203.  
  32204.                                   Objectives
  32205.  
  32206.   The goal of this workshop is to provide a forum for researchers to present
  32207.   and exchange research results and advances in the field of Fault-Tolerant
  32208.   Parallel and Distributed Systems.  Both hardware and system issues are of
  32209.   interest.
  32210.  
  32211.                                     Topics
  32212.        Topics of interest in the workshop include (but not limited to):
  32213.  
  32214.    *Fault-Tolerant Multiprocessor Systems        *Fault Model Issues
  32215.    *Novel Hardware Architectures                 *Fault-Tolerant Networks
  32216.    *High Speed Microprocessor Issues             *Experimental Systems
  32217.    *Formal Methods for Specification, Design     *Recovery Techniques
  32218.     and Verification of Parallel and Distributed *Software Fault Tolerance
  32219.     Systems                                      *Real-Time Systems
  32220.    *Reliable Design and Synthesis Tools          *Empirical Studies and
  32221.                           System Validation
  32222.                                  Participation
  32223.  
  32224.   Send five copies of a full manuscript not exceeding 5000 words to the 
  32225.   Program Chairman by February 18, 1994.  All submissions must be original
  32226.   and never published.  Revised papers will appear in a book published by
  32227.   IEEE Computer Society Press following the workshop.  All panel proposals
  32228.   should be received no later than March 15, 1994.
  32229.  
  32230.   For additional information concerning the workshop, please contact the 
  32231.   General Chair.  Any questions concerning the program or paper submission
  32232.   should be directed to the Program Chairman.
  32233.  
  32234.   General Chairman                           Program Chairman
  32235.   Dhiraj K. Pradhan                          Dimiter R. Avresky
  32236.   Department of Computer Science             Dept. of Computer Science
  32237.   Texas A&M University                       Texas A&M University
  32238.   College Station, TX  77843-3112            College Station, TX  77843-3112
  32239.   Phone:  (409) 862-2438                     Phone:  (409) 862-4389
  32240.   FAX:  (409) 862-2758                       FAX:  (409) 862-2758
  32241.   Email:  pradhan@cs.tamu.edu                Email:  avresky@cs.tamu.edu
  32242.  
  32243.                                   DEADLINES
  32244.  
  32245.                      Paper Submission:  February 18, 1994
  32246.                 Notification of Acceptance:  April 15, 1994
  32247.                    Copy of Revised Paper:  August 15, 1994 
  32248.  
  32249.    Co-Chair                                Co-Program Chair
  32250.    David Rennels                           Herman Kopetz
  32251.    UCLA                                    Institute fur Praktische Informatik
  32252.                                TU of Vienna
  32253.  
  32254.    Vice General Chair                      Vice Program Chair
  32255.    Fabrizio Lombardi                       Nitin Vaidya
  32256.    Texas A&M University                    Texas A&M University
  32257.  
  32258.    Publications Chair                      Treasurer
  32259.    Jeffrey A. Clark                        Jennifer Welch
  32260.    The MITRE Corp.                         Texas A&M University
  32261.  
  32262.    Local Arrangements Chair                Registration Chair
  32263.    Duncan M. Walker                        Wei Zhao
  32264.    Texas A&M University                    Texas A&M University
  32265.                    
  32266.                    
  32267.                    Program Committee
  32268.  
  32269.   K. Birman (USA)                            Y. Levendel (USA)
  32270.   N. Bowen (USA)                             S. Low (USA)
  32271.   D. Bossen (USA)                            E. Maehle (Germany) 
  32272.   J. Bruck (USA)                             A. Nordsieck (USA) 
  32273.   B. Ciciani (Italy)                         U. Pooch (USA) 
  32274.   M. Dal Cin (Germany)                       W. Sanders (USA)
  32275.   A. Costes (France)                         A. Sengupta (USA)
  32276.   F. Cristin (USA)                           D. Siewiorek (USA)
  32277.   W. Debany (USA)                            S. Shirvastava (UK)
  32278.   A. Goforth (USA)                           P. Sollock (USA) 
  32279.   J. Hayes (USA)                             N. Suri (USA)
  32280.   R. Iyer (USA)                              K. Trivedi (USA)
  32281.   Y. Koga (Japan)                            P. Verissimo (Portugal)
  32282.   I. Koren (USA)                           
  32283.   Y. Kakuda (Japan)
  32284.  
  32285.  
  32286. Approved: parallel@hubcap.clemson.edu
  32287. Follow-up: comp.parallel
  32288. Path: bounce-back
  32289. From: dcp79807@csie.nctu.edu.tw (Chih-Zong Lin)
  32290. Newsgroups: comp.parallel,comp.lang.fortran
  32291. Subject: REALIGN & REDISTRIBUTE!
  32292. Date: 17 Nov 1993 07:11:38 GMT
  32293. Organization: Dep. Computer Sci. & Information Eng., Chiao Tung Univ., Taiwan, R.O.C
  32294.  
  32295. Dear Netter:
  32296.  
  32297. I am a PhD student at NCTU and have some question about data alignment
  32298. and distribution.
  32299.  
  32300. In the definition of High Performance Fortran,
  32301. REALIGN and REDISTRIBUTE are provided to change data allocation dynamically.
  32302.  
  32303. But, when is appropriate to use these directives?
  32304.  
  32305. Is there any real applications that is suitable to use these directives?
  32306.  
  32307.  
  32308. --
  32309. Regards
  32310.  
  32311. Miller
  32312. ------------------------------------------------------------------------------
  32313. Chih-Zong Lin    Email: dcp79807@csie.nctu.edu.tw 
  32314. Department of Computer Science and Information Engineering
  32315. National Chiao-Tung University 
  32316. Hsinchu, Taiwan, Republic of China
  32317. ------------------------------------------------------------------------------
  32318.  
  32319.  
  32320. Approved: parallel@hubcap.clemson.edu
  32321. Follow-up: comp.parallel
  32322. Path: bounce-back
  32323. Newsgroups: comp.parallel
  32324. From: edwin@dutind2.twi.tudelft.nl (Edwin Vollebregt)
  32325. Subject: Re: The Future of Parallel Computing
  32326. Organization: Delft University of Technology
  32327. References: <1993Nov9.163338.9165@hubcap.clemson.edu> <1993Nov10.132809.21164@hubcap.clemson.edu> <1993Nov16.152328.4885@hubcap.clemson.edu>
  32328.  
  32329. In article <1993Nov16.152328.4885@hubcap.clemson.edu>, msodhi@agsm.ucla.edu (Mohan Sodhi) writes:
  32330. > >Jeff> PLEASE don't forget about portability.  If the same code can be
  32331. > >Jeff> compiled onto multiple architectures, it will make the
  32332. > >Jeff> programmer's job MUCH MUCH easier.  (Tune to architecture as
  32333. > >Jeff> needed, instead of rewrite from scratch.)
  32334. > >I agree 100%.
  32335. > The hopes of the authors' above are a little too pie-in-the sky.  For one,
  32336. > even for serial computers, porting an application from one operating system
  32337. > to another can take _months_ and involve a lot of new code. 
  32338.  
  32339. That is, if the original application was not designed with portability in mind. We had to port an application of 30.000 lines FORTRAN from one UNIX system to another, and did it within a day. Then we translated the FORTRAN code to C by f2c, and compiled this again without problems on the second UNIX system. Finally we ported the C version to one transputer. As soon as we obtained the transputer version of f2c (that is: as soon as we obtained a FORTRAN compiler for the transputer) this again was no problem.
  32340.  Conclusion: the application does not
  32341. make use of OS specific things.
  32342.  
  32343. > Second,
  32344. > developing architecture-free algorithms does not mean *no new code* -- it just
  32345. > means no new math to be worked out.  I do not think it is possible to
  32346. > have a program compile under different architectures (even if the algorithm
  32347. > is unchanged) with just a few compiler directives; I am not even sure
  32348. > this is desirable.  
  32349.  
  32350. I do think this is possible in the future.
  32351.  
  32352. > One thing at a time: let us concentrate on architecture
  32353. > free algorithms for now (in my area, operations research, this itself is a
  32354. > very new concept!): this will take our minds off the tooth fairy who will
  32355. > write a program that will compile under every computer architecture and every
  32356. > operating system.
  32357.  
  32358. Not all algorithms are _architecture_free_, consider for instance the summation of N variables, or the computation of an inner product. This can be done very well on a hypercube, but not on a linear array or ring of processors. Thus an algorithm that relies heavily on inner products is not _architecture_free_.
  32359.    If the fastest sequential algorithms are not _architecture_free_, then it is not possible to write efficient, portable code.  Conclusion: a scientist must know for which architectures his algorithm is suitable, and (s)he must tune the code to the architecture, or architecture to application.
  32360.  
  32361. > Mohan Sodhi
  32362. > msodhi@agsm.ucla.edu
  32363.  
  32364. Approved: parallel@hubcap.clemson.edu
  32365. Follow-up: comp.parallel
  32366. Path: bounce-back
  32367. Newsgroups: comp.parallel
  32368. From: taylors@westminster.ac.uk (Simon Taylor)
  32369. Subject: Conference: 2ND EUROMICRO WORKSHOP ON PARALLEL AND DISTRIBUTED 
  32370.          PROCESSING
  32371.  
  32372. -----------------------------------------------------------
  32373.                  2ND EUROMICRO WORKSHOP ON
  32374.             PARALLEL AND DISTRIBUTED PROCESSING
  32375.                              
  32376.                 University of Malaga, Spain
  32377.                    January 26-28th 1994
  32378. -----------------------------------------------------------
  32379.                              
  32380.                              
  32381. ABOUT THE WORKSHOP
  32382.  
  32383. Parallel processing is a crucial strategic element in the
  32384. race for sustainable teraflop performance across a wide
  32385. range of computing applications. Major advances in parallel
  32386. and distributed processing technology over the last decade
  32387. have resulted in a wide range of hardware architectures and
  32388. a host of parallel languages. However, as with serial
  32389. processing in the 70's, parallel computing has entered its
  32390. own software crisis; innovative techniques are now required
  32391. to provide an effective engineering life-cycle for parallel
  32392. systems. This workshop, the second organised by Euromicro,
  32393. aims to provide a forum whereby users and developers of
  32394. distributed computer technology can present and discuss
  32395. latest research results in the quest for usable parallel
  32396. computers.
  32397.  
  32398. The workshop will include keynote sessions with invited
  32399. eminent speakers; sessions for open forum presentations;
  32400. group and plenary discussion sessions; and full paper
  32401. presentation sessions covering a wide range of topics in:
  32402. parallel computer architecture and software methodology;
  32403. parallel system performance engineering; and distributed
  32404. application modelling.
  32405.  
  32406.  
  32407. GENERAL INFORMATION
  32408.  
  32409. Dates
  32410.  
  32411. Workshop dates:     January 26-28, 1994.
  32412. Registration:  Wednesday, January 26 at 8.30 - 9.15am.
  32413. Reception:     Wednesday January 26 at Hotel Melia Costa
  32414. del Sol at 7.30pm
  32415.  
  32416. Workshop Venue
  32417.  
  32418. Hotel Melia Costa del Sol
  32419. Playa del Bajondillo
  32420. E-29620 Torremolinos-Malaga
  32421. Tel.      +34 (9) 5 238 66 77
  32422. Fax:      +34 (9) 5 238 64 17
  32423. Telex:    77326 METEL E
  32424.  
  32425.  
  32426.  
  32427. Travel
  32428.  
  32429. The Workshop will be held at the Hotel Melia Costa del Sol,
  32430. which is situated 15 kms west of the centre of Malaga.
  32431. Malaga international airport is 13 kms away from the city
  32432. centre, and 7 kms from the Hotel Melia.  A taxi from Malaga
  32433. airport to the Hotel Melia costs about 1200 Ptas.  You can
  32434. also take the train from Malaga airport to Torremolinos
  32435. (100 Ptas), and then walk for about 10 minutes to the Hotel
  32436. Melia.
  32437.  
  32438. Climate
  32439.  
  32440. Malaga is the capital of the Costa del Sol, which is sunny
  32441. most of the time. The climate is usually warm and pleasant
  32442. at the end of January in Malaga; the average daytime
  32443. temperature is 170C.
  32444.  
  32445. Currency
  32446.  
  32447. The unit of currency in Spain is the Peseta.  At the end of
  32448. September the exchange rate was 1 US$ = 126 Ptas .
  32449.  
  32450. Registration
  32451.  
  32452. Kindly fill in the enclosed form.  Please ensure that all
  32453. relevant details are completed and return the form together
  32454. with the appropriate fees to the Euromicro office as soon
  32455. as possible.  The registration fees are quoted in Dutch
  32456. guilders (Dfl).
  32457.  
  32458. Accommodation
  32459.  
  32460. A hotel reservation form is included. Please SEND OR FAX
  32461. THE BOOKING FORM BEFORE JANUARY 1ST 1994, DIRECTLY TO THE
  32462. TRAVEL AGENCY.
  32463.  
  32464. Other Events and Attractions
  32465.  
  32466. Before and after the workshop you can take part in tourist
  32467. events in Andalucia.  There are about a hundred golf
  32468. courses in the Costa del Sol.  You may ski in the Sierra
  32469. Nevada mountains (two hours drive from the Hotel Melia),
  32470. where the 1995 World Ski Championship will be celebrated.
  32471. The Travel Agency has planned two tours for the Workshop
  32472. participants: Nerja-Frigiliana and Alhambra-Granada.
  32473. Prices and conditions are specified in the Accommodation
  32474. Registration Form.
  32475. Nerja - Frigiliana: Tuesday, January 25th.
  32476. Depart by coach at 9am from Hotel Melia, taking the coast
  32477. road through several villages to reach the picturesque town
  32478. of Nerja.  Visit the impressive prehistoric caves and take
  32479. lunch in Meson Toledano.  Spend the afternoon in the
  32480. beautiful Andalusian village of Frigiliana.
  32481.  
  32482. Granada - Alhambra: Saturday, January 29th.
  32483. Depart by coach at 8.30am from Hotel Melia, making a short
  32484. stop in Riofrio en route to Granada. Visit the Alhambra
  32485. fortress, famous monument to Arabic architecture; the
  32486. Charles V Palace; and gardens of the Generalife, enjoying
  32487. panoramic views of the city, the Sierra Nevada mountains
  32488. and the historic quarters of Sacromonte and Albaicin. Lunch
  32489. in restaurant Alixares, and spend some free time in
  32490. Granada.
  32491.  
  32492. Cancellation Charges
  32493.  
  32494. These apply to Workshop registration and accommodation
  32495. bookings made through the local travel agency, as follows:
  32496. Up to January 1st, 1994:    90% reimbursement
  32497. Up to January 15th, 1994:   10% reimbursement
  32498.  
  32499.  
  32500.  
  32501.  
  32502. TECHNICAL PROGRAMME
  32503.  
  32504.  
  32505. Wednesday 26th January 1994
  32506.  
  32507. 8.30 - 9.15 Registration and Coffee
  32508.  
  32509. 9:15 - 10.00   Keynote Session
  32510. Chairman: S C Winter (UK)
  32511. Speaker: Prof H Zima (A)
  32512. High Performance Languages and their Compilation
  32513.  
  32514. 10.00 - 10.20  Coffee
  32515.  
  32516. 10.20 - 11.30  Session 1
  32517. Image Processing
  32518. Chairwoman: E Pissaloux (F)
  32519. Representation and Measurement of Non-Rigid Egocentric
  32520. Motion: A Parallel Implementation
  32521. G J McAleese and P J Morrow (UK)
  32522. Image Processing on Parallel Machines: a Protocol for
  32523. Managing Global Objects
  32524. Cremonesi, N Scarabottolo and D Sorrenti (I)
  32525. Efficient Implementation of an Abstract Programming Model
  32526. for Image Processing on Transputers
  32527. D Crookes and T J Brown (UK)
  32528.  
  32529. 11.40 - 12.50  Session 2
  32530. Parallelization
  32531. Chairman: A Tyrrell(UK)
  32532. How To Implement Distributed Algorithms Efficiently
  32533. R Diekmann, K Menzel, F Stangenberg (D)
  32534. Parallel Discrete Event Simulation Using Space-Time Events
  32535. H Ahmed, L Barriga and R Ayani (S)
  32536. Deterministic Parallel Execution of Sequential Programs
  32537. N Kalantery, S C Winter and D R Wilson (UK)
  32538.  
  32539. 12.50 - 14.00  Lunch
  32540.  
  32541. 14.00 - 15.30  Session 3
  32542. Parallel Architectures
  32543. Chairman: D Tabak (USA)
  32544. A New Massively Parallel Architecture Relying on
  32545. Asynchronous Communications
  32546. S Mohammadi, D Dulac, A Merigot (F)
  32547. Creatures and Spirals: A Data Parallel Object Architecture
  32548. I Stephenson and R Taylor (UK)
  32549. Zelig: A Novel Parallel Computing Machine Using
  32550. Reconfigurable Logic
  32551. N Howard, N Allinson, A Tyrrell (UK)
  32552. Harp: A Statically Scheduled Multiple-Instruction-Issue
  32553. Architecture and its Compiler
  32554. R Adams, S Gray, G Steven (UK)
  32555.  
  32556. 15.30 - 15.45  Coffee
  32557.  
  32558. 15.45 - 16.30  Session 4
  32559. Neural Nets
  32560. Chairman: K Grosspietsch (D)
  32561. Introducing Parallelism in Power Systems Diagnosis
  32562. C Rodriguez, J Muguerza, J J Martin, A Laguente and S
  32563. Rementeria (E)
  32564. A Transputer-based Neural Network to Determine Object
  32565. Positions from Tri-aural Ultrasonic Sensor Data
  32566. J Chen and J Van Campenhout (B)
  32567.  
  32568. 16.30 - 18.00  Session 5
  32569. Networks and Communications
  32570. Chairman: G F Ciccarella (I)
  32571. A New Approach to Concurrent Ring: 1 Bit Latency
  32572. Sandoval, C Sandoval, A Suarez and C Ramfrez (E)
  32573. Integrating Memory and Network Accesses: A Flexible
  32574. Processor-Network Interface for Efficient Application
  32575. Execution
  32576. Y Chen and C King (TC)
  32577. Evaluation of a Priority Flow Control Scheme for
  32578. Multicomputer Networks
  32579. A H Smai and H Wu (S)
  32580. Mad-Postman: a Look-ahead Message Propagation Method for
  32581. Static Bidimensional Meshes
  32582. C Izu (UK)
  32583.  
  32584. 18.30 - 19.30
  32585. Open Forum Session
  32586. Chairman: S J E Taylor (UK)
  32587. Papers to be announced
  32588.  
  32589. 19.30  Reception
  32590.  
  32591.  
  32592.  
  32593.  
  32594. Thursday 27th January 1994
  32595.  
  32596. 8.30 - 9.15    Session 6
  32597. Formal Methods
  32598. Chairman: F Tirado (E)
  32599. A BDD Package for a Massively Parallel SIMD Archtecture
  32600. G P Cabodi, S Gai, M Rebaudengo and M S Reorda (I)
  32601. Change Diagram: A Model for Behavioural Description of
  32602. Asynchronous Circuit/Systems
  32603. E Pissaloux, A Kondratyev, A Taubin and V Varshavsky (F)
  32604.  
  32605. 9.15 - 10.00   Keynote Session
  32606. Chairman: E Zapata (E)
  32607. Speaker: Prof M Valero (E)
  32608. Efficient Access to Streams in Multi-Module Memories
  32609.  
  32610. 10.00 - 10.30  Coffee
  32611.  
  32612. 10.30 - 12.45  Session 7
  32613. Parallel Numerical Algorithms
  32614. Chairman: A Gonzalez (E)
  32615. A New Algorithm For Singular Value Decompositions
  32616. M Ralha (P)
  32617. Numerical Aspects and Solution of some Nonlinear Scrodinger
  32618. Systems on a Distributed Memory Parallel Computer
  32619. I Martin, F Tirado and l Vazquez (E)
  32620. An efficient parallel implementation of the ML-EM algorithm
  32621. for PET image reconstruction with a multi-threaded
  32622. operating system
  32623. K Bastiaens, I Lemahieu, P Desmedt and W Vandermeersch (B)
  32624. 3D Reconstruction of Macro-molecules on Multiprocessors
  32625. R Asenjo, J Cabaleiro, J Carazo and E Zapata (E)
  32626. Parallel Simulated Annealing: Getting Super Linear Speedups
  32627. A Genco (I)
  32628. The Enhancement of Parallel Numerical Linear Algorithms
  32629. using a Visualisation Approach
  32630. E Stuart and J Weston (UK)
  32631.  
  32632. 12.45 - 14.00  Lunch
  32633.  
  32634. 14.00 - 15.30
  32635. Group Discussion Sessions
  32636.  
  32637. 15.30 - 15.45  Coffee
  32638.  
  32639. 15.45 - 16.30  Session 8
  32640. Load Balancing
  32641. Chairman: R McConnell (UK)
  32642. The Efficient Management of Task Clusters in a Dynamic Load
  32643. Balancer
  32644. W Joosen, J Pollet and P Verbaeten (B)
  32645. The Benefits of Migration in a Parallel Objects Programming
  32646. Environment
  32647. A Ciampolini, A Corradi, L Leonardi and F Zambonelli (I)
  32648.  
  32649. 16.30 - 18.00  Session 9
  32650. Distributed Operating Systems
  32651. Chairman: N Scarabottolo (I)
  32652. Some Issues for the DistrIbuted Scheduling Problem in the
  32653. MO2 Distributed Real-Time Object-Oriented System
  32654. B Mecibah and A Attoui (F)
  32655. A Distributed Algorithm for Fault-Tolerant Dynamic Task
  32656. Scheduling
  32657. E Maehle and F Markus (D)
  32658. Three Domain Voting in Real-Time Distributed Control
  32659. Systems
  32660. J Bass, P Croll, P Fleming and L Woolliscroft (UK)
  32661. The Helios Tuple Space Library
  32662. L Silva, B Veer and J Silva (P)
  32663.  
  32664. 18.30 - 19.30
  32665. Open Forum Session
  32666. Chairman: S J E Taylor (UK)
  32667. Papers to be announced
  32668.  
  32669. Evening free
  32670.  
  32671.  
  32672.  
  32673.  
  32674.  
  32675. Friday 28th January 1994
  32676.  
  32677. 8.30 - 9.15    Session 10
  32678. Real Time Systems
  32679. Chairman: P Kacsuk (H)
  32680. Real Time Implementation of a Multivariable Adaptive
  32681. Controller
  32682. G Ciccarella, F Loriga, P Marietti (I)
  32683. A Switch Architecture for Real-Time Multimedia
  32684. Communications
  32685. G Smit and P Havinga (NL)
  32686.  
  32687. 9.15 - 10.00   Keynote Session
  32688. Chairman: M. Valero (E)
  32689. Speaker: Prof D Padua (USA)
  32690. Evaluation of Parallelization Techniques
  32691.  
  32692. 10.00 - 10.15  Coffee
  32693.  
  32694. 10.15 - 12.30  Session 11
  32695. Performance Engineering
  32696. Chairman: J M Troya (E)
  32697. Evaluation of Benchmark Performance Estimation for Parallel
  32698. Fortran Programs on Massively Parallel SIMD and MIMD
  32699. Machines
  32700. T Fahringer (A)
  32701. Workload Characterization for Performance Engineering of
  32702. Parallel Applications
  32703. E Rosti and G Serazzi (I)
  32704. Combining Functional and Performance Debugging of Parallel
  32705. and Distributed Systems based on Model-driven Monitoring
  32706. P Dauphin (D)
  32707. A New Trace & Replay System for Shared Memory Programs
  32708. based on Lamport Clocks
  32709. L Levrouw, K Audenaert and J Van Campenhout (B)
  32710. Monitoring, Analysis and Tuning of Parallel Programs within
  32711. the FortPort Migration Environment
  32712. R McConnell and P Milligan (UK)
  32713. Supporting Process Migration Through Communicating Petri
  32714. Nets
  32715. G Bucci, R Mattolini and E Vicario (I)
  32716.  
  32717. 12.30 - 13.30  Lunch
  32718.  
  32719. 13.30 - 15.00  Session 12
  32720. Parallel Programming
  32721. Chairman: P Milligan (UK)
  32722. Improving Performance with Serialisation
  32723. G R Justo and P H Welch (UK)
  32724. Wavefront Scheduling in Logflow
  32725. P Kacsuk (H)
  32726. Implementing Distributed Reactive Programs in Linda
  32727. A Clematis and V Gianuzzi (I)
  32728. Multi-Level Copying for Unification in Parallel
  32729. Architectures
  32730. A Ciampolini, E Lamma, P Mello and C Stefanelli (I)
  32731.  
  32732. 15.00 - 15.15  Coffee
  32733.  
  32734. 15.15 - 16.45  Session 13
  32735. Software Engineering
  32736. Chairman: E Luque (E)
  32737. Automatic Data Distribution and Parallelization
  32738. A Dierstein, R Hayer and T Rauber (D)
  32739. Transputer Based System Software
  32740. E Luque, M Senar, D Franco, P Hernandez, E Heymann and J
  32741. Moure (E)
  32742. A Real-Time Multiprocessors Application Development
  32743. Environment Design and Implementation
  32744. N Zergainoh, T Maurin, Y Sorel and C Lavarenne (F)
  32745. A Life-Cycle for Parallel and Distributed Systems based on
  32746. Two Formal Models of Concurrency
  32747. M Bettaz, G Reggio (Alg)
  32748.  
  32749. 16.45 - 18.30
  32750. Plenary Discussion Session
  32751.  
  32752. 20.00  Farewell Dinner
  32753.  
  32754.  
  32755.  
  32756.  
  32757. ORGANISERS
  32758.  
  32759. Organising Chairman
  32760.  
  32761. Emilio L. Zapata
  32762. Dept. Arquitectura de Computadores
  32763. University of Malaga
  32764. Plaza El Ejido, s/n
  32765. E-29013 Malaga
  32766. Spain
  32767. Tel:      +34 5 213 1404
  32768. Fax:      +34 5 213 1413
  32769. Email:    ezapata@ctima.uma.es
  32770.  
  32771. Programme Chairman
  32772.  
  32773. Stephen Winter
  32774. Centre for Parallel Computing
  32775. University of Westminster
  32776. 115 New Cavendish St.
  32777. London W1M 8JS
  32778. United Kingdom
  32779. Tel:      + 44 71 911 5099
  32780. Fax:      + 44 71 911 5143
  32781. Email:    wintersc@westminster.ac.uk
  32782.  
  32783. Deputy Programme Chairman
  32784.  
  32785. Simon Taylor
  32786. Centre for Parallel Computing
  32787. University of Westminster
  32788. 115 New Cavendish St.
  32789. London W1M 8JS
  32790. United Kingdom
  32791. Tel:      +44 71 911 5000  ext 3586
  32792. Fax:      +44 71 911 5143
  32793. Email:    taylors@westminster.ac.uk
  32794.  
  32795. Euromicro Office
  32796.  
  32797. Mrs Chiquita Snippe-Marlisa
  32798. P.O. Box. 2346
  32799. NL 7301 EA Apeldoorn
  32800. The Netherlands
  32801. Tel:      +31 55 557 372
  32802. Fax:      +31 55 557 393
  32803. Email:    chiquita@info.vub.ac.be
  32804.  
  32805.  
  32806. -----------------------------------------------------------
  32807.  
  32808. ACCOMMODATION RESERVATION FORM
  32809. 2nd Euromicro Workshop on Parallel and Distributed
  32810. Processing
  32811. January 26-28th 1994, University of Malaga, Spain
  32812.  
  32813. Name    ________________________________________________
  32814.  
  32815. Company/Institution ____________________________________
  32816.  
  32817. Address ________________________________________________
  32818.  
  32819. City  ____________________ Country _____________________
  32820.  
  32821. Phone ____________________ Fax _________________________
  32822.  
  32823.  
  32824. OFFICIAL HOTEL
  32825. Hotel Melia Costa del Sol (4 star)
  32826. Rate per room and night including breakfast (VAT included):
  32827.        DOUBLE            (2 persons)    6.510,-Ptas
  32828.        SINGLE USE        (1 person)     5.100,-Ptas
  32829.  
  32830. Please reserve _______ Double room(s)
  32831.  
  32832.      and/or    _______ Single Use room(s)
  32833.  
  32834. Arrival date _______________ Departure date _______________
  32835.  
  32836. TOURIST VISITS
  32837.  +  Nerja-Frigiliana (Tuesday, January 25th)
  32838.     4.850,-Ptas (VAT included)
  32839.  +  Granada - Alhambra (Saturday, January 29th)
  32840.     7.950,-Ptas (VAT included)
  32841.  
  32842. Please reserve _________ persons to visit Nerja-Frigiliana
  32843.  
  32844.         and/or _________ persons to visit Alhambra-Granada
  32845.  
  32846. RESERVATION DEPOSIT
  32847. To confirm the reservation, payment of the following
  32848. deposit is necessary:
  32849.        Hotel = 25%       Tourist visits = 50%
  32850. All deposits will be deducted from your final bill which
  32851. must be settled before leaving.
  32852. Note: The tourist visits will be cancelled if there are
  32853. less than 30 participants and in this case 97.5% of the
  32854. registration will be refunded.
  32855.  
  32856. Date _______________   Total Deposit _________________ Ptas
  32857.  
  32858. METHODS OF PAYMENT
  32859.  +  By bank draft in Pesetas payable to
  32860.     VIAJES INTERSOL, S.A. by a Spanish Bank.
  32861.  +  By bank transfer: BANCO DE SANTANDER
  32862.     (c/o VIAJES INTERSOL, A.S.).
  32863.       Account number: 20187. Agency number: 609.
  32864.       Gran Via, 80. E-28013 Madrid.
  32865.  +  By Credit Card (Visa):
  32866.  
  32867.        Card Number  ___________________________________
  32868.  
  32869.        Expiry date  ___________________________________
  32870.  
  32871.        Name of Cardholder _____________________________
  32872.  
  32873.        Signature of Cardholder ________________________
  32874.  
  32875. -----------------------------------------------------------
  32876.  
  32877. Please send this form together with the cheque or copy of
  32878. your bank transfer, where appropriate, to
  32879.  
  32880.        VIAJES INTERSOL, S.A.
  32881.        Avda. Palma de Mallorca, 17
  32882.        E-29620 Torremolinos-Malaga. Spain
  32883.        Phone:  +34 5 238 3101 / +34 5 238 3102
  32884.        Fax:    +34 5 237 2905
  32885.        Telex:  79307 WLCS E
  32886.  
  32887.  
  32888.  
  32889. Approved: parallel@hubcap.clemson.edu
  32890. Follow-up: comp.parallel
  32891. Path: bounce-back
  32892. Newsgroups: comp.parallel
  32893. From: Herman.te.Riele@cwi.nl (Herman te Riele)
  32894. Subject: Parallel Computational Number Theory and Cryptography Symposium
  32895. Organization: CWI, Amsterdam
  32896.  
  32897. CWI - RUU SYMPOSIA "MASSIVELY PARALLEL COMPUTING AND APPLICATIONS"
  32898.  
  32899. In 1993-1994, the Centre for Mathematics and Computer Science Amsterdam (CWI)
  32900. and the University of Utrecht (RUU) are organising a series of symposia
  32901. on massively parallel computing and applications. 
  32902.  
  32903. This is to announce the third meeting which centres around the theme: 
  32904.  
  32905.           COMPUTATIONAL NUMBER THEORY AND CRYPTOGRAPHY
  32906.  
  32907. Date:     Friday November 26, 1993
  32908. Location: CWI, Kruislaan 413, Amsterdam
  32909. Room:     Z011
  32910.  
  32911. Program
  32912.  
  32913. 10.00 - 10.30:  Coffee/Tea
  32914. 10.30 - 10.35:  Welcome
  32915. 10.35 - 11.20:  Jean-Jacques Quisquater (Catholic University of Louvain, Belgium)
  32916.                 Exhaustive searches, collisions, meet-in-the-middle attacks:
  32917.                 a parallel perspective               
  32918. 11.30 - 12.15:  Francois Morain (Ecole Polytechnique, Palaiseau, France)
  32919.                 Distributed primality proving
  32920. 12.15 - 13.30:  Lunch break
  32921. 13.30 - 14.15:  Johannes Buchmann (Universitaet des Saarlandes, Germany)
  32922.                 Factoring with the number field sieve
  32923. 14.25 - 15.10:  Peter L. Montgomery (Stieltjes Institute for Mathematics, Leiden,
  32924.                 and CWI Amsterdam)
  32925.                 Vectorization of the elliptic curve method
  32926. 15.10 - 15.30:  Tea break
  32927. 15.30 - 16.15:  Henk Boender (RU Leiden, and CWI Amsterdam)
  32928.                 Factoring with some variations of the quadratic sieve
  32929.                 on the Cray Y-MP4
  32930.  
  32931. Dates and themes of the previous meetings:
  32932. June   4, 1993: Topics in Environmental Mathematics 
  32933. Sept. 24, 1993: Parallel Numerical Algorithms 
  32934.  
  32935. For further information, e.g., about how to reach CWI, contact H.J.J. te Riele 
  32936. (CWI, tel. 020-5924106)
  32937. If you wish to receive a LaTeX-file of the abstracts of the lectures,
  32938. send a message to herman@cwi.nl 
  32939.  
  32940.  
  32941. Approved: parallel@hubcap.clemson.edu
  32942. Follow-up: comp.parallel
  32943. Path: bounce-back
  32944. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  32945. From: matthew@colussus.demon.co.uk (Matthew Harrison)
  32946. Subject: Re: INMOS Information available on T9000 
  32947. References:  <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu>
  32948. Organization: BIO-RAD Microscience
  32949. Reply-To: matthew@colussus.demon.co.uk
  32950.  
  32951. In article <1993Nov16.151841.3483@hubcap.clemson.edu> elwin@media.mit.edu writes:
  32952.  
  32953. >           availability of  the T9000  transputer.   Just  three  years
  32954. >           after design  commenced, ...
  32955. >
  32956.  
  32957. In a different life, I was working on a project in 1990 which used T800s. 
  32958. In 4Q of that year we heard about the T9000, and I think at that time Inmos 
  32959. said samples would be available in 2Q 1991. Just 2.5 years optimistic. 
  32960. It was too long for us to wait...
  32961. We were thinking at the time, why didn't they do what Nottingham University
  32962. have done this year, and make a virtual channel coprocessor? T800s are a bit
  32963. long in the tooth, now, but with enough of them, and an efficient way of
  32964. feeding them with data collecting the results, that is not a nightmare to write
  32965. software for, you've got a reasonable bang per buck.
  32966.  
  32967. > World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  32968. > R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  32969. > how in the hell do they manage to call it "fastest'???
  32970.  
  32971. I think the emphasis is on "single-chip computer", onchip serial comms and all
  32972. that. But you're right, I don't think they've updated their release material 
  32973. since the T9000 was originally supposed to have been available.
  32974.  
  32975. -- 
  32976.  
  32977. Matthew Harrison (who is not a spokesperson for the company he works for)
  32978.  
  32979. Does anybody here speak for their company? :-)
  32980.  
  32981.  
  32982. Approved: parallel@hubcap.clemson.edu
  32983. Follow-up: comp.parallel
  32984. Path: bounce-back
  32985. From: westman@tp.umu.se (Olof Westman)
  32986. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  32987. Subject: Re: INMOS Information available on T9000
  32988. Organization: University of Umea, Sweden
  32989. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu>
  32990.  
  32991. elwin@media.mit.edu (Lee W Campbell) writes:
  32992.  
  32993. >          The T9000  is the world's fastest single-chip computer, with
  32994.  
  32995. >World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  32996. >R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  32997. >how in the hell do they manage to call it "fastest'???
  32998.  
  32999. The keyword here is *single-chip computer*. As opposed to
  33000. single chip CPU.
  33001.  
  33002. I agree on the other points. I read about the T9000
  33003. in september 1990. It was called the H1 att the time
  33004. and I got interested. That interest died 2 years later.
  33005. If Inmos wants the transputer to be used for anything
  33006. else than sewing machines and stuff they have to produce
  33007. new processors more frequently. Every eight years won't do.
  33008.  
  33009. Olof Westman  sysadmin    Dept. Phys. Univ. of Umeaa
  33010. westman@tp.umu.se
  33011.  
  33012.  
  33013.  
  33014. From: dcp79807@csie.nctu.edu.tw (Chih-Zong Lin)
  33015. Newsgroups: comp.compilers
  33016. Subject: REALIGN & REDISTRIBUTE!
  33017. Date: 17 Nov 1993 07:11:38 GMT
  33018. Organization: Dep. Computer Sci. & Information Eng., Chiao Tung Univ., Taiwan, R.O.C
  33019. Nntp-Posting-Host: dcp79807%@pdp3.csie.nctu.edu.tw
  33020. X-Newsreader: TIN [version 1.2 PL0]
  33021.  
  33022. [Cross post from comp.parallel]
  33023.  
  33024. Dear Netter:
  33025.  
  33026. I am a PhD student at NCTU and have some question about data alignment
  33027. and distribution.
  33028.  
  33029. In the definition of High Performance Fortran,
  33030. REALIGN and REDISTRIBUTE are provided to change data allocation dynamically.
  33031.  
  33032. But, when is appropriate to use these directives?
  33033.  
  33034. Is there any real applications that is suitable to use these directives?
  33035.  
  33036.  
  33037. --
  33038. Regards
  33039.  
  33040. Miller
  33041. ------------------------------------------------------------------------------
  33042. Chih-Zong Lin    Email: dcp79807@csie.nctu.edu.tw 
  33043. Department of Computer Science and Information Engineering
  33044. National Chiao-Tung University 
  33045. Hsinchu, Taiwan, Republic of China
  33046. ------------------------------------------------------------------------------
  33047.  
  33048.  
  33049. Approved: parallel@hubcap.clemson.edu
  33050. Follow-up: comp.parallel
  33051. Path: bounce-back
  33052. Newsgroups: comp.parallel
  33053. From: edsr!edsdrd!man@uunet.UU.NET (Marc Nurmi)
  33054. Subject: Re: PARMACS
  33055.  
  33056.  
  33057. I read your posting to comp.parallel regarding the availability of
  33058. PARMACS V6.0.  Do you have Internet addresses and/or phone numbers
  33059. for PALLAS?
  33060.  
  33061. Also, are there other tools that provide support for parallel
  33062. distributed computing that you would recommend?
  33063.  
  33064. Thanks, 
  33065.  
  33066. Marc Nurmi - man@edsdrd.eds.com
  33067. ...!uunet!edsr!edsdrd!man
  33068.  
  33069. Approved: parallel@hubcap.clemson.edu
  33070. Follow-up: comp.parallel
  33071. Path: bounce-back
  33072. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  33073. From: steved@inmos.co.uk (Stephen Doyle)
  33074. Subject: Re: INMOS Information available on T9000
  33075. Organization: INMOS Limited, Bristol, UK
  33076. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu>
  33077.  
  33078. In article <1993Nov16.151841.3483@hubcap.clemson.edu> elwin@media.mit.edu (Lee W Campbell) writes:
  33079. >In article <1993Nov11.213059.26255@hubcap.clemson.edu>, thompson@inmos.co.uk () writes:
  33080. >> Some information regarding the IMS T9000 transputer is now available on the
  33081. >> INMOS FTP server, ftp.inmos.co.uk [192.26.234.3], in the directory
  33082. >> /inmos/info/T9000.  This relates mainly to the superscalar processor and
  33083. >> the cache memory system at present.
  33084. >          The T9000  is the world's fastest single-chip computer, with
  33085. >          its 200  MIPS, 25  MFLOPS peak  performance and  its  32-bit
  33086. >          superscalar integer  processor, 64-bit  floating point unit,
  33087. >          virtual channel  processor, 100Mbits/s  communications ...
  33088. >
  33089. >World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  33090. >R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  33091. >how in the hell do they manage to call it "fastest'???
  33092. >
  33093.  
  33094. If you read carefully the statement is "single-chip computer", this is 
  33095. emphasising that the T9000 design allows programs to run with no external
  33096. support logic or memory. I.e. just using on-chip RAM and serial links to 
  33097. download code you can run an application, plainly not a large application but 
  33098. nevertheless an application. Now in practice of course usage in this way
  33099. is likely to be rare but the concept remains the same that the T9000
  33100. requires minimal external support circuitry to function. Hence the 
  33101. MIPS per board area is extremely favourable compared with the chips you 
  33102. mention above. For example a 4MB T9000 HTRAM module is 55.5x90 mm whereas your
  33103. bulk standard 486 motherboard is around 230x300mm (14 times larger).
  33104.  
  33105. regards,
  33106.  
  33107. Steve
  33108.  
  33109. Steve Doyle, Software Marketing, INMOS Ltd   | Tel +44 454 616616
  33110. 1000 Aztec West                              | Fax +44 454 617910
  33111. Almondsbury                                  | UK: steved@inmos.co.uk
  33112. Bristol BS12 4SQ, UK                         | US: steved@inmos.com
  33113.  
  33114. Approved: parallel@hubcap.clemson.edu
  33115. Follow-up: comp.parallel
  33116. Path: bounce-back
  33117. Newsgroups: comp.parallel
  33118. From: DKGCampb@cen.ex.ac.uk
  33119. Subject: Re: The Future of Parallel Computing
  33120. Organization: University of Exeter, UK.
  33121. References: <1993Nov15.154454.14783@hubcap.clemson.edu> <1993Nov16.165313.15793@hubcap.clemson.edu> <1993Nov17.134155.24622@hubcap.clemson.edu>
  33122.  
  33123. In article <1993Nov17.134155.24622@hubcap.clemson.edu> yali@ecn.purdue.edu (Yan Alexander Li) writes:
  33124. >The discussions of this thread have focused on software vs. hardware issue. 
  33125. >The implied architecture is the homogeneous.  I would like to suggest that we
  33126. >consider heterogeneous processing also.  Imagine that we can write a application
  33127. >without worrying about the architecture.
  33128. >The compiler will do the analysis and dispatch different part of the program to
  33129. >the component (sub)systems that best suit them.
  33130. >
  33131. >A cluster of heterogeneous parallel
  33132. >systems tightly coupled by highbandwidth network or simply a heterogeneous
  33133. >parallel computer itself can exploit the heterogeneous architecture to cope with
  33134. >different characteritics of different part of one application.  This naturally
  33135. >brings up the problem of standardization in algorithm description, high
  33136. >level language, compiler, OS and other software issues.  It is both hardware and
  33137. >software issue, but IMHO the software people may have to make much more effort
  33138. >to have this work.
  33139.  
  33140. OK, so you have a het. arch.  Now how are you going to predict
  33141. performance?  How are you going to determine whether your parallel
  33142. software will run more efficiently on a different het. (or
  33143. homogeneous) parallel arch.?
  33144.  
  33145.  
  33146. -- 
  33147. Duncan Campbell                     Acknowledgement:  I'd like to thank me,
  33148. Department of Computer Science                        without whom none of this
  33149. University of Exeter,                                 would have been possible.
  33150. Prince of Wales Road,          Exeter  EX4 4PT              Tel:  +44 392 264063  Telex:  42894 EXUNIV G
  33151.  
  33152.  
  33153. Approved: parallel@hubcap.clemson.edu
  33154. Path: bounce-back
  33155. From: D.Lamptey@sheffield.ac.uk (D Lamptey)
  33156. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  33157. Subject: Re: INMOS Information available on T9000
  33158. Followup-To: comp.sys.transputer,comp.arch,comp.parallel
  33159. Organization: Academic Computing Services, Sheffield University
  33160. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu>
  33161.  
  33162. Lee W Campbell (elwin@media.mit.edu) wrote:
  33163. : In article <1993Nov11.213059.26255@hubcap.clemson.edu>, thompson@inmos.co.uk () writes:
  33164. :  
  33165. : For the fun of it I checked it out. What was available was a Q&A and a press
  33166. : release. I got the press release. It's kind of amusing:
  33167.  
  33168. (deletions)
  33169.  
  33170. :           The T9000  is the world's fastest single-chip computer, with
  33171. :           its 200  MIPS, 25  MFLOPS peak  performance and  its  32-bit
  33172. :           superscalar integer  processor, 64-bit  floating point unit,
  33173. :           virtual channel  processor, 100Mbits/s  communications ...
  33174.  
  33175. : World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  33176. : R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  33177. : how in the hell do they manage to call it "fastest'???
  33178.  
  33179. :  -- Often in error; Never in Doubt!     elwin@media.mit.edu    617-253-0381
  33180. :                     Lee Campbell        MIT Media Lab
  33181.  
  33182.  
  33183. I am afraid, this time in error yet again :( I think the key-words here
  33184. are "single-chip" . Have a read of the stuff again of what the chip has
  33185. on it, compare it to other chips that have the same functionality, and
  33186. then come and post your retraction/apology. I guess Thompson did not
  33187. reply to you as he's rather busy at the moment.
  33188.  
  33189. What you read probably went like:
  33190.  
  33191. "high performance central processing unit (CPU),a 16 Kbyte cache, 
  33192. communications system and other support functions on a single chip. "
  33193.  
  33194. etc, etc. (Rest for you to read)
  33195.  
  33196. Derryck.
  33197. Approved: parallel@hubcap.clemson.edu
  33198. Follow-up: comp.parallel
  33199. Path: bounce-back
  33200. Newsgroups: comp.parallel
  33201. From: Murray Cole <mic@dcs.ed.ac.uk>
  33202. Subject: Re: The Future of Parallel Computing
  33203. Organization: Department of Computer Science, University of Edinburgh
  33204. References: <1993Nov11.142432.8924@hubcap.clemson.edu> <1993Nov15.154454.14783@hubcap.clemson.edu> <1993Nov16.165203.15351@hubcap.clemson.edu> <1993Nov17.134224.24886@hubcap.clemson.edu>
  33205.  
  33206. In article <1993Nov17.134224.24886@hubcap.clemson.edu>, dbader@eng.umd.edu (David Bader) writes:
  33207. > Murray, have you looked at Stone's book? A quick review follows.
  33208. >    -- definition of granularity in terms of Comp - Comms ratio
  33209.   
  33210. Yes (great book!). My point is that communication (in whatever guise)
  33211. is such a fundamental part of parallel algorithm design that it seems
  33212. unreasonable for manufacturers to say "Here is our new parallel machine. It 
  33213. requires large grain computations" and then blame designers of parallel
  33214. software/algorithms for a failure to "catch up" with them. The gap could be 
  33215. closed from two directions.
  33216.  
  33217. I appreciate that I may be overstating this a bit (!), but then the prior
  33218. debate seemed to have been heavily loaded in the other direction.
  33219.  
  33220. Murray.
  33221.  
  33222. Approved: parallel@hubcap.clemson.edu
  33223. Follow-up: comp.parallel
  33224. Path: bounce-back
  33225. Newsgroups: comp.arch,comp.parallel
  33226. From: ucapcdt@ucl.ac.uk (Christopher David Tomlinson)
  33227. Subject: Information on the Connection m/c
  33228. Message-ID: <1993Nov17.150636.415092@ucl.ac.uk>
  33229. Organization: Bloomsbury Computing Consortium
  33230.  
  33231. I am looking for references/information on the connection machine (both cm1 and cm2) in particular anything regarding the design of the processing elements. I would be grateful if anybody could supply me with any leads.
  33232.  
  33233. Thanks in advance
  33234.  
  33235. Chris Tomlinson  
  33236. C.Tomlinson@ucl.ac.uk
  33237.  
  33238.  
  33239. Approved: parallel@hubcap.clemson.edu
  33240. Follow-up: comp.parallel
  33241. Path: bounce-back
  33242. Newsgroups: comp.parallel
  33243. From: Dave Beckett <djb1@ukc.ac.uk>
  33244. Newsgroups: comp.parallel,comp.sys.transputer,comp.parallel.pvm
  33245. Subject: [LONG] Transputer, occam and parallel computing archive: ADMIN
  33246. Followup-To: comp.sys.transputer
  33247. Organization: Computing Lab, University of Kent at Canterbury, UK.
  33248. Summary: Loads more files.  See NEW FILES archive for details.
  33249. Keywords: transputer, occam, parallel, archive
  33250.  
  33251. This is the administrative information article for the Transputer,
  33252. occam and parallel computing archive.  Please consult the accompanying
  33253. article for details of the new files and areas.
  33254.  
  33255. In the last two weeks I've added another 9 megabytes of
  33256. files to the archive at unix.hensa.ac.uk in /parallel.  It currently
  33257. contains over 66 Mbytes of freely distributable software and documents,
  33258. in the transputer, occam and parallel computing subject area.
  33259.  
  33260.  
  33261. STATISTICS
  33262. ~~~~~~~~~~
  33263. >3410 users accessed archive (470 more than last time)
  33264. >1580 Mbytes transfered (380MB more)
  33265.   since the archive was started in early May.
  33266.  
  33267. Top 10 files accessed, excluding Index files
  33268.   771 /parallel/README
  33269.   384 /parallel/pictures/T9000-schematic.ps.Z
  33270.   343 /parallel/reports/misc/soft-env-net-report.ps.Z
  33271.   292 /parallel/documents/inmos/occam/manual3.ps.Z
  33272.   221 /parallel/Changes
  33273.   173 /parallel/reports/ukc/T9000-systems-workshop/all-docs.tar.Z
  33274.   166 /parallel/software/folding-editors/origami.tar.Z
  33275.   166 /parallel/index/ls-lR.Z
  33276.   141 /parallel/faqs/parallel-C++-classes-1
  33277.   131 /parallel/books/prentice-hall
  33278.  
  33279. New this time: the first parallel C++ class faq.
  33280.  
  33281.  
  33282. WHERE IS IT?
  33283. ~~~~~~~~~~~~
  33284. At the HENSA (Higher Education National Software Archive) UNIX
  33285. archive.  The HENSA/UNIX archive is accessible via an interactive
  33286. browsing facility, called fbr as well as email, DARPA ftp, gopher and
  33287. NI-FTP (Blue Book) services.  For details, see below.
  33288.  
  33289.  
  33290. HOW DO I FIND WHAT I WANT?
  33291. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  33292. The files are all located in /parallel and each directory contains a
  33293. short Index file of the contents.
  33294.  
  33295. If you want to check what has changed in between these postings, look
  33296. at the /parallel/Changes file which contains the new files added.
  33297.  
  33298. There is also a full text index available of all the files in
  33299. /parallel/index/FullIndex.ascii but be warned - it is very large (over 200K).
  33300. Compressed and gzipped versions are in the same directory.
  33301.  
  33302. For those UNIX dweebs, there are output files of ls-lR in
  33303. /parallel/index/ls-lR along with compressed and gzipped versions too.
  33304.  
  33305.  
  33306. HOW DO I CONTACT IT?
  33307. ~~~~~~~~~~~~~~~~~~~~
  33308.  
  33309. There are several ways to access the files which are described below
  33310. - log in to the archive to browse files and retrieve them by email;
  33311. transfer files by DARPA FTP over JIPS or use Blue Book NI-FTP.
  33312.  
  33313.  
  33314. Logging in:
  33315. ~~~~~~~~~~~
  33316. JANET X.25 network:
  33317.     call uk.ac.hensa.unix (or 000049200900 if you do not have NRS)
  33318.  
  33319. JIPS: 
  33320.     telnet unix.hensa.ac.uk    (or 129.12.21.7)
  33321.  
  33322. Once connected, use the login name 'archive' and your email address to
  33323. enter. You will then be placed inside the fbr restricted shell. Use the
  33324. help command for up to date details of what commands are available.
  33325.  
  33326.  
  33327. Transferring files by FTP
  33328. ~~~~~~~~~~~~~~~~~~~~~~~~
  33329. DARPA ftp from JIPS/the internet:
  33330.     site: unix.hensa.ac.uk (or 129.12.21.7)
  33331.         login: anonymous
  33332.         password: <your email address>
  33333.                     
  33334. Use the 'get' command to transfer a file from the remote machine to
  33335. the local one.  When transferring a binary file it is important to
  33336. give the command 'binary' before initiating the transfer.  For more
  33337. details of the 'ftp' command, see the manual page by typing 'man ftp'.
  33338.  
  33339.  
  33340. The NI-FTP (Blue Book) request over JANET
  33341.         <ARCHIVE>path-of-file  from uk.ac.hensa.unix
  33342.         Username: guest
  33343.         Password: <your email address>
  33344.                     
  33345. The program to do an NI-FTP transfer varies from site to site but is
  33346. usually called hhcp or fcp.  Ask your local experts for information.
  33347.  
  33348.  
  33349. Transferring files by Email
  33350. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  33351. To obtain a specific file email a message to
  33352.       archive@unix.hensa.ac.uk
  33353. containing the single line
  33354.       send path-of-file
  33355. or 'help' for more information.
  33356.  
  33357.  
  33358. Browsing and transferring by gopher
  33359. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  33360. >From the Root Minnesota Gopher gopher, select the following entries:
  33361.  
  33362.     8.  Other Gopher and Information Servers/
  33363.  
  33364.     5.  Europe/
  33365.  
  33366.     37. United Kingdom/
  33367.  
  33368.     15. HENSA unix (National software archive, University of Kent), (UK)/
  33369.  
  33370.     3.  The UNIX HENSA Archive at the University of Kent at Canterbury/
  33371.  
  33372.     9.  Parallel Archive/
  33373.  
  33374. and browse the archive as normal.  [The numbers are very likely to change]
  33375. The short descriptions are abbreviated to fit on an 80 column display
  33376. but the long ones can always be found under 'General Information.' (the
  33377. Index files).  Updates to the gopher tree follow a little behind the
  33378. regular updates.
  33379.  
  33380.  
  33381. COMING SOON
  33382. ~~~~~~~~~~~
  33383. A better formatted bibliograpy of the IOS press (WoTUG, NATUG et al) books.
  33384. A HUGE bibliography of occam papers, PhD theses and publications - currently
  33385.   about 2000 entries.
  33386. The rest of the INMOS archive server files.
  33387. WoTUG related papers and information.
  33388. NATUG information and membership form.
  33389. A freely distributable occam compiler for workstations.
  33390. A couple of free occam compiler for transputers.
  33391.  
  33392.  
  33393. DONATIONS
  33394. ~~~~~~~~~
  33395. Donations are very welcome.  We do not allow uploading of files directly
  33396. but if you have something you want to donate, please contact me.
  33397.  
  33398.  
  33399. Dave Beckett
  33400.  
  33401. Computing Laboratory, University of Kent at Canterbury, UK, CT2 7NF
  33402. Tel: [+44] (0)227 764000 x7684  Fax: [+44] (0)227 762811  Email: djb1@ukc.ac.uk
  33403.  
  33404. Approved: parallel@hubcap.clemson.edu
  33405. Follow-up: comp.parallel
  33406. Path: bounce-back
  33407. Newsgroups: comp.parallel
  33408. From: chk@erato.cs.rice.edu (Charles Koelbel)
  33409. Subject: High Performance Fortran Forum II
  33410. Organization: Rice University, Houston
  33411.  
  33412.                         CALL FOR PARTICIPATION
  33413.  
  33414.                    HIGH PERFORMANCE FORTRAN FORUM II
  33415.                            KICKOFF MEETING
  33416.  
  33417.  
  33418.                          January 13-14, 1994
  33419.                       Wyndham Greenspoint Hotel
  33420.                            Houston, Texas
  33421.  
  33422. In 1992, the High Performance Fortran Forum (HPFF) conducted a series
  33423. of meetings that led to the definition of High Performance Fortran
  33424. (HPF).  The HPF language has elicited wide comment, both positive and
  33425. negative, and several vendors are now implementing compilers.  In
  33426. order to reach consensus on the language features, several important
  33427. capabilities were explicitly not considered; these include parallel
  33428. input and output, task parallelism, and support for complex data
  33429. structures.  Due to these limitations, we are tentatively planning a
  33430. new series of HPFF meetings to take place in 1994.
  33431.  
  33432. The purpose of the HPFF II kickoff meeting is to decide whether a new
  33433. series of meetings is needed and, if so, what the scope of the new HPF
  33434. should be.  To this end, presentations by vendors, users, and
  33435. researchers will consider experience with current HPF prototypes and
  33436. needs for the future.  The following speakers have been
  33437. confirmed:
  33438.  
  33439.     Geoffrey Fox, Syracuse University 
  33440.     John Levesque, Applied Parallel Research
  33441.     David Loveman, DEC
  33442.     Rob Schreiber, RIACS
  33443.     Guy Steele, Thinking Machines
  33444.     Joel Saltz, University of Maryland
  33445.     Henk Sips, Technical University Delft
  33446.     Speakers TBA, IBM & Portland Group Inc. 
  33447.  
  33448. Several other speakers are tentatively planned.  
  33449.  
  33450.  
  33451. The tentative schedule is:
  33452.  
  33453.     January 12   7:00pm-9:00pm   Opening reception
  33454.     January 13   8:30am-5:00pm   Vendor & user talks; discussion
  33455.     January 14   8:30am-noon     User & research talks; planning for future
  33456.  
  33457.  
  33458. The meeting will be held at:
  33459.  
  33460.     Wyndham Greenspoint Hotel
  33461.     12400 Greenspoint Drive
  33462.     Houston, TX 77060
  33463.     Phone: 1-800-822-4200
  33464.     Fax: 713-875-4596
  33465.  
  33466. There will be a courtesy van from the airport to the hotel.  A block
  33467. of rooms has been reserved for the nights of January 12-14 at the rate
  33468. of $70.00 per night.  Please make your reservations directly with the
  33469. hotel before December 29; mention ``HPFF II'' to get the special rate.
  33470.  
  33471. The registration cost for the meeting is $75.00.  This includes the
  33472. reception on January 12, lunch on January 13, coffee breaks, and
  33473. copies of the speakers' slides.  If you plan to attend, please fill
  33474. out and return the form below.
  33475.  
  33476.  
  33477. Organizing Committee
  33478.  
  33479. Ken Kennedy, HPFF Chair
  33480. Charles Koelbel, HPFF I Executive Director
  33481. Mary Zosel, HPFF II Executive Director
  33482.  
  33483.  
  33484. -------------------------------------------------------------------------------
  33485.  
  33486.  
  33487.                   High Performance Fortran Forum II
  33488.                            Kickoff Meeting
  33489.                           Registration Form
  33490.  
  33491.  
  33492.                         January 13--14, 1994
  33493.                       Wyndham Greenspoint Hotel
  33494.                        12400 Greenspoint Drive
  33495.                         Houston, Texas 77060
  33496.                         Phone: 1-800-822-4200
  33497.                           Fax: 713-875-4596
  33498.  
  33499.  
  33500.  
  33501. Please return this form to
  33502.  
  33503. Theresa Chatman
  33504. tlc@cs.rice.edu
  33505.  
  33506. Or send a hardcopy to:
  33507. Theresa Chatman
  33508. CITI/CRPC, Box 1892
  33509. Rice University
  33510. Houston, TX 77251-1892
  33511. Fax: 713-285-5136
  33512.  
  33513.  
  33514. Name: 
  33515.  
  33516. Organization: 
  33517.  
  33518. Address:
  33519.  
  33520.  
  33521.  
  33522.  
  33523. E-mail: 
  33524.  
  33525. Phone: 
  33526.  
  33527. Fax: 
  33528.  
  33529. I will attend the HPFF II Kickoff Meeting (YES or NO): 
  33530.     If yes, dietary restrictions? 
  33531.         Vegetarian? 
  33532.         Kosher? 
  33533.         Other (please specify)? 
  33534.     Please enclose \$75.00 check or money order payable to Rice
  33535.     University if sending by US mail; otherwise, registration will
  33536.     be collected at the meeting.
  33537.  
  33538. Please add me to the HPFF mailing list (YES or NO):
  33539.  
  33540. Approved: parallel@hubcap.clemson.edu
  33541. Follow-up: comp.parallel
  33542. Path: bounce-back
  33543. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  33544. From: markm@ee.ubc.ca (mark milligan)
  33545. Subject: Re: INMOS Information available on T9000 
  33546. Organization: University of BC, Electrical Engineering
  33547. References:  <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu> <1993Nov17.134548.26043@hubcap.clemson.edu>
  33548.  
  33549. I have just heard that they are shipping small quantities of beta test chips
  33550. that are still very buggy and not fully implemented yet. These beta chips
  33551. only run at 15 Mhz a far cry from the promised 50 Mhz.  
  33552.  
  33553. The new estamated date for the 40 Mhz release is now 2Q 94, I remember that two
  33554. years ago the were promising us that they could deliver the chips in 1Q 92.
  33555.  
  33556. Im glad we never put an order in, we would still be waiting. :^)
  33557. -- 
  33558. -------
  33559. Mark R. Milligan                    markm@ee.ubc.ca
  33560. University of British Columbia
  33561. Department of Electrical Engineering
  33562. Telerobotics and Control Lab.
  33563.  
  33564. Approved: parallel@hubcap.clemson.edu
  33565. Follow-up: comp.parallel
  33566. Path: bounce-back
  33567. Newsgroups: comp.parallel
  33568. From: khb@chiba.Eng.Sun.COM (chiba)
  33569. Subject: Public commment period for X3H5 model document begins
  33570. Date: 17 Nov 93 10:56:03
  33571. Organization: SunPro
  33572.  
  33573. It is desireable for a wide cross section of the community to comment
  33574. on proposed Standards.
  33575.  
  33576.  
  33577. Accredited Standards Committee
  33578. X3, Information Processing Systems
  33579.  
  33580. News Release
  33581. October 11, 1993
  33582. Proj. No. 737-D
  33583. Reply to Lynn Barra
  33584.      202-626-5738
  33585.      75300.2665@compuserve.com
  33586.  
  33587. X3 Announces the Public Review and Comment Period on X3.252.199x, Parallel
  33588. Processing Model for High Level Programming Languages
  33589.  
  33590.  
  33591. Washington, D. C. -- Accredited Standards Committee X3, Information
  33592. Processing Systems announces the four-month public review and comment
  33593. period on X3.252.199x Parallel Processing Model for High Level
  33594. Programming Languages.  The comment period extends from October 29,
  33595. 1993 through February 26, 1994.
  33596.  
  33597. The intent of this standard is to define parallel constructs which are
  33598. portable and language independent.
  33599.  
  33600. The standard provides a method of improving the performance of programs that
  33601. can execute on parallel computing systems, without requiring that they do so.
  33602. Therefore, all standard-conforming programs will be executable by a single
  33603. process.  This draft also defines parallelism in terms of nested structured
  33604. constructs specifying where it is valid for parallel execution to occur and
  33605. provides synchronization mechanisms for communication among processes 
  33606. participating in the execution of such a construct.
  33607.  
  33608. The comment period ends on February 26, 1994.  Please send all comments 
  33609. to X3 Secretariat, Attn:  Lynn Barra, 1250 Eye Street NW, Suite 200,
  33610. Washington, DC 20005-3922.  Send a copy to American National Standards 
  33611. Institute, Attn:  BSR Center, 11 West 42nd St 13th Floor, New York, NY 10036.
  33612.  
  33613. Purchase this standard in hard copy from:
  33614.  
  33615. Global Engineering Documents, Inc.
  33616. 15 Inverness Way
  33617. Englewood, CO 80112-5704
  33618. 1-800-854-7179 (within USA)
  33619. 714-979-8135 (outside USA)
  33620.  
  33621. Single Copy Price:  $35.00
  33622. International Price:  $45.50
  33623. --
  33624. ----------------------------------------------------------------
  33625. Keith H. Bierman    keith.bierman@Sun.COM| khb@chiba.Eng.Sun.COM
  33626. SunPro 2550 Garcia MTV 12-40             | (415 336 2648) fax 964 0946
  33627. Mountain View, CA 94043  <speaking for myself, not Sun*> Copyright 1993
  33628.  
  33629.  
  33630. Approved: parallel@hubcap.clemson.edu
  33631. Follow-up: comp.parallel
  33632. Path: bounce-back
  33633. Newsgroups: comp.parallel
  33634. From: mln@blearg.larc.nasa.gov (Michael L Nelson)
  33635. Subject: A Comparison of Queueing, Cluster and Distributed Computing Systems
  33636. Organization: NASA Langley Research Center, Hampton, VA  USA
  33637.  
  33638. The following report is now availabe via anonymous ftp:
  33639. techreports.larc.nasa.gov/pub/techreports/larc/93/tm109025.ps.Z
  33640.  
  33641. A Comparison of Queueing, Cluster and Distributed Computing Systems
  33642.  
  33643. Joseph A. Kaplan (j.a.kaplan@larc.nasa.gov)
  33644. Michael L. Nelson (m.l.nelson@larc.nasa.gov)
  33645. NASA Langley Research Center
  33646. October, 1993
  33647.  
  33648. Abstract
  33649.  
  33650. Using workstations clusters for distributed computing has become
  33651. popular with the proliferation of inexpensive, powerful workstations.
  33652. Workstation clusters offer both a cost effective alternative to batch
  33653. processing and an easy entry into parallel computing. However, a number
  33654. of workstations on a network does not constitute a cluster. Cluster
  33655. management software is necessary to har ness the collective computing
  33656. power. In this paper, we compare a variety of cluster management and
  33657. queueing systems: Distributed Queueing Systems (DQS), Condor,
  33658. LoadLeveler, Load Balancer, Load Sharing Facility (LSF - formerly
  33659. Utopia), Distributed Job Manager (DJM), Computing in Distributed
  33660. Networked Environments (CODINE) and NQS/Exec. The systems differ in
  33661. their design philosophy and implementation. Based on published reports
  33662. on the different systems and conversations with the system's developers
  33663. and vendors, a comparison of the systems is made on the integral issues
  33664. of clustered computing.
  33665.  
  33666. Approved: parallel@hubcap.clemson.edu
  33667. Follow-up: comp.parallel
  33668. Path: bounce-back
  33669. Newsgroups: comp.parallel,comp.sys.super
  33670. From: conpar94@risc.uni-linz.ac.at (CONPAR 94)
  33671. Subject: CFP: CONPAR 94 (Correction)
  33672. Keywords: call for papers, parallel and vector processing
  33673. Organization: RISC, J.K. University of Linz, Austria
  33674.  
  33675. The previously posted call for papers was an old version
  33676. that did not include the complete program committee.
  33677. Please use and propagate this version.
  33678.  
  33679. -----------------------------------------------------------------------------
  33680.  
  33681.                             CONPAR 94 - VAPP VI
  33682.  
  33683.                 Johannes Kepler University of Linz, Austria
  33684.                             September 6-8, 1994
  33685.  
  33686.  
  33687.                             Second Announcement
  33688.                                   and
  33689.                              Call For Papers
  33690.  
  33691.  
  33692. The past decade has seen the emergence of two highly successful series of
  33693. CONPAR and of VAPP conferences on the subject of parallel processing. The
  33694. Vector and Parallel Processors in Computational Sciene meetings were held in
  33695. Chester (VAPP I, 1981), Oxford (VAPP II, 1984), and Liverpool (VAPP III,
  33696. 1987). The International Conferences on Parallel Processing took place in
  33697. Erlangen (CONPAR 81), Aachen (CONPAR 86) and Manchester (CONPAR 88). In 1990
  33698. the two series joined together and the CONPAR 90 - VAPP IV conference was
  33699. organized in Zurich. CONPAR 92 - VAPP V took place in Lyon, France.
  33700.  
  33701. The next event in the series, CONPAR 94 - VAPP VI, will be organized in 1994
  33702. at the University of Linz (Austria) from September 6 to 8, 1994. The format of
  33703. the joint meeting will follow the pattern set by its predecessors. It is
  33704. intended to review hardware and architecture developments together with
  33705. languages and software tools for supporting parallel processing and to
  33706. highlight advances in models, algorithms and applications software on vector
  33707. and parallel architectures.
  33708.  
  33709. It is expected that the program will cover:
  33710.  
  33711. * languages / software tools    * automatic parallelization and mapping
  33712. * hardware / architecture       * performance analysis
  33713. * algorithms                    * applications
  33714. * models / semantics            * paradigms for concurrency
  33715. * testing and debugging         * portability
  33716.  
  33717. A special session will be organized on Parallel Symbolic Computation.
  33718.  
  33719. The proceedings of the CONPAR 94 - VAPP VI conference are intended to be
  33720. published in the Lecture Notes in Computer Science series by Springer Verlag.
  33721.  
  33722. This conference is organized by GUP-Linz in cooperation with RISC-Linz, ACPC
  33723. and IFSR. Support by GI-PARS, OCG, OGI, IFIP WG10.3, IEEE, ACM, AFCET, CNRS,
  33724. C3, BCS-PPSG, SIG and other organizations is being negotiated.
  33725.  
  33726. Schedule:
  33727.  
  33728. Submission of complete papers and tuturials            Feb 15 1994
  33729. Notification of acceptance                             May 1 1994
  33730. Final (camera-ready) version of accepted papers        July 1 1994
  33731.  
  33732. Paper submittance:
  33733.  
  33734. Contributors are invited to send five copies of a full paper not exceeding 15
  33735. double-spaced pages in English to the program committee chairman at:
  33736.  
  33737.        CONPAR 94 - VAPP VI
  33738.        c/o Prof. B. Buchberger
  33739.        Research Institute for Symbolic Computation (RISC-Linz) 
  33740.        Johannes Kepler University, A-4040 Linz, Austria 
  33741.        Phone: +43 7236 3231 41, Fax: +43 7236 3231 30 
  33742.        Email: conpar94@risc.uni-linz.ac.at
  33743.  
  33744. The title page should contain a 100 word abstract and five specific keywords.
  33745.  
  33746. CONPAR/VAPP also accepts and explicitly encourages submission by electronic
  33747. mail to conpar94@risc.uni-linz.ac.at. Submitted files must be either
  33748.  
  33749. * in uuencoded (preferably compressed) DVI format or
  33750. * in uuencoded (preferably compressed) Postscript format
  33751.  
  33752. as created on most Unix systems by
  33753.  
  33754. cat paper.ps | compress | uuencode paper.ps.Z > paper.uue
  33755.  
  33756. Organising committee:
  33757.  
  33758. Conference Chairman:    Prof. Jens Volkert
  33759. Honorary Chairman:    Prof. Wolfgang Handler
  33760. Program Chairman:    Prof. Bruno Buchberger
  33761. Members:            Siegfrid Grabner, Wolfgang Schreiner
  33762. Conference Address:    
  33763.         
  33764.         University of Linz, 
  33765.     Dept. of Computer Graphics and Parallel Processing (GUP-Linz), 
  33766.     Altenbergerstr. 69, A-4040 Linz, Austria
  33767.     Tel.: +43-732-2468-887 (885), Fax.: +43-732-2468-10
  33768.     Email: conpar94@gup.uni-linz.ac.at
  33769.  
  33770. Program committee:
  33771.  
  33772. Chairman: Bruno Buchberger (Austria)
  33773.  
  33774. Makoto Amamiya (Japan), Francoise Andre (France), Marco Annaratone (USA), P.C.P. Bhatt (India), 
  33775. Dario Bini (Italy), Arndt Bode (Germany), Kiril Boyanov, Helmar Burkhart (Switzerland), 
  33776. Cristina Coll (Spain), Michel Cosnard (France), Frank Dehne (USA), Mike Delves (UK), 
  33777. Ed F. Deprettere (The Netherlands), Jack Dongarra (USA), Iain Duff (UK), Klaus Ecker (Germany), 
  33778. John P. ffitch (UK), Rolf Fiebrich (USA), Ian Foster (USA), Geoffrey Fox (USA), 
  33779. Christian Fraboul (France), Wolfgang Gentzsch (Germany), Thomas Gross (USA), Gaetan Hains (Canada), 
  33780. Guenter Haring (Austria), Hiroki Honda (Japan), Hoon Hong (Austria), F. Hossfeld (Germany), 
  33781. Roland N. Ibbett (UK), Chris Jesshope (UK), Harry Jordan (USA), Peter Kacsuk (Hungary), 
  33782. Erich Kaltofen (USA), Hironori Kasahara (Japan), Wolfgang Kleinert (Austria), 
  33783. Wolfgang Kuechlin (Germany), Otto Lange (Germany), Michael A. Langston (USA), 
  33784. Allen D. Malony (USA), Alfonso Miola (Italy), Nikolay Mirenkov (Japan), Yoichi Muraoka (Japan), 
  33785. David A. Padua (USA), Cherri Pancake (USA), Dennis Parkinson (UK), Guy-Rene Perrin (France), 
  33786. Ron Perrot (UK), Bernard Philippe (France), Brigitte Plateau (France), Ramon Puigjaner (Spain), 
  33787. Michael J. Quinn (USA), Gerard L. Reijns (The Netherlands), Karl-Dieter Reinartz (Germany), 
  33788. Dirk Roose (Belgium), Bl. Sendov (Bulgaria), Othmar Steinhauser (Austria), Ondrej Sykora (Slovakia), 
  33789. Denis Trystram (France), Marco Vanneschi (Italy), Paul Vitanyi (The Netherlands), 
  33790. Jens Volkert (Austria), R. Wait (UK), Paul S. Wang (USA), Peter Zinterhof (Austria) 
  33791.  
  33792. Reply Form:
  33793.  
  33794. We encourage you to reply via e-mail, giving us the information listed below.
  33795. If you do not have the possibility to use e-mail, please copy the form below
  33796. and send it to the conference address.
  33797.  
  33798.  
  33799.                       CONPAR 94 - VAPP VI 
  33800.                             Reply Form
  33801.  
  33802.  
  33803. Name:..................................First Name................Title.........
  33804.     
  33805. Institution:...................................................................
  33806.  
  33807. Address:.......................................................................
  33808.  
  33809. Telephone:.....................Fax:...........................E-Mail:..........
  33810.  
  33811. Intentions (please check appropriate boxes)
  33812.  
  33813.     o    I expect to attend the conference
  33814.     o    I wish to present a paper
  33815.     o    I wish to present at the exhibition (industrial / academic)
  33816.  
  33817.  
  33818.  
  33819.  
  33820.  
  33821. Approved: parallel@hubcap.clemson.edu
  33822. Follow-up: comp.parallel
  33823. Path: bounce-back
  33824. Newsgroups: comp.parallel
  33825. From: stefis@zeno.informatik.uni-mannheim.de (Stefan Fischer)
  33826. Subject: KSR locks and barriers
  33827. Organization: A poorly-installed InterNetNews site
  33828.  
  33829. Hi,
  33830.  
  33831. recently, we made some measurements on a KSR with 32 processors. We
  33832. used a variable number of threads, from about 5 to about 65. In all
  33833. cases, we used two versions of the parallel program, one with explicit
  33834. use of lock and condition variables, and one with barrier
  33835. synchronization. We were a bit amazed by the results:
  33836.  
  33837. (a) In thee case of less than 32 threads, barrier synchronization was
  33838.     always faster than lock synchronization (about 15-20%).
  33839. (b) When we had more threads than processors, the performance of
  33840.     barrier sync. decreased dramatically, while the speedup of the
  33841.     lock version in relation to the sequential version still
  33842.     increased.
  33843.  
  33844.   
  33845. Is this (b) a known effect, and if so, do you have an explanation for it?
  33846.  
  33847. Stefan
  33848.  
  33849. --
  33850. Stefan Fischer
  33851. Universitaet Mannheim        email: stefis@pi4.informatik.uni-mannheim.de
  33852. Praktische Informatik IV                 tel  : +49 621 292 1407
  33853. Seminargebaeude A5, C117   68131 Mannheim  Germany   fax  : +49 621 292 5745
  33854.  
  33855. Approved: parallel@hubcap.clemson.edu
  33856. Follow-up: comp.parallel
  33857. Path: bounce-back
  33858. Newsgroups: comp.parallel
  33859. From: dowd@acsu.buffalo.edu (Patrick Dowd)
  33860. Subject: CFP - SIGCOMM'94
  33861. Reply-To: dowd@eng.buffalo.edu
  33862. Organization: State University of New York at Buffalo
  33863.  
  33864.                Call for Papers
  33865.               ACM SIGCOMM'94 CONFERENCE
  33866.        Communications Architectures, Protocols and Applications
  33867.                    
  33868.               University College London
  33869.                   London, UK
  33870.                    
  33871.             August 31 to September 2, 1994
  33872.          (Tutorials and Workshop, August 30)
  33873.                    
  33874.  
  33875.  
  33876. An  international forum  on  communication  network  applications  and
  33877. technologies, architectures, protocols, and algorithms.
  33878.  
  33879. Authors are invited to submit  full  papers concerned with both theory
  33880. and practice. The areas of interest include, but are not limited to:
  33881.  
  33882.    --  Analysis and  design  of  computer  network  architectures  and
  33883.        algorithms, 
  33884.    --  Innovative results in local area networks,
  33885.    --  Mixed-media networks,
  33886.    --  High-speed networks, routing and addressing, support for mobile
  33887.        hosts, 
  33888.    --  Resource sharing in distributed systems,
  33889.    --  Network management,
  33890.    --  Distributed operating systems and databases,
  33891.    --  Protocol specification, verification, and analysis.
  33892.  
  33893. A   single-track,   highly  selective   conference   where  successful
  33894. submissions   typically  report   results   firmly   substantiated  by
  33895. experiment, implementation, simulation, or mathematical analysis.
  33896.  
  33897. General Chair: Jon Crowcroft, University College London
  33898. Program Chairs: Stephen Pink, Swedish Institute of Computer Science
  33899.                 Craig Partridge, BBN
  33900. Publicity Chair: Patrick Dowd, State University of New York at Buffalo
  33901. Local Arrangements Chair: Soren-Aksel Sorensen, University College London
  33902.  
  33903. Papers must be less than 20 double-spaced pages long, have an abstract
  33904. of  100-150  words,  and  be  original  material  that  has  not  been
  33905. previously  published  or  be  currently  under  review  with  another
  33906. conference or journal.
  33907.  
  33908. In addition to its high  quality technical  program, SIGCOMM '94  will
  33909. offer  tutorials by  noted  instructors  such  as  Paul  Green and Van
  33910. Jacobson (tentative), and a workshop  on  distributed systems  led  by
  33911. Derek McAuley.
  33912.  
  33913. Important Dates:
  33914.  
  33915.     Paper submissions: 1 February 1994
  33916.     Tutorial proposals: 1 March 1994
  33917.     Notification of acceptance: 2 May 1994
  33918.     Camera ready papers due: 9 June 1994
  33919.  
  33920. All  submitted papers will  be  judged  based  on  their  quality  and
  33921. relevance through double-blind reviewing where  the  identities of the
  33922. authors are  withheld from  the  reviewers.  Authors names should  not
  33923. appear on the paper.  A cover letter  is  required that identifies the
  33924. paper title and lists the name, affiliation, telephone  number, email,
  33925. and fax number of all authors.
  33926.  
  33927. Authors of accepted papers need to sign an ACM copyright release form.
  33928. The  Proceedings will  be published as a  special issue of ACM SIGCOMM
  33929. Computer Communication  Review. The program committee will also select
  33930. a few papers for possible publication in the IEEE/ACM  Transactions on
  33931. Networking.
  33932.  
  33933. Submissions from North America should be sent  to:
  33934.      Craig Partridge
  33935.      BBN
  33936.      10 Moulton St
  33937.      Cambridge MA 02138
  33938.  
  33939. All  other submissions  should  be sent to:
  33940.      Stephen Pink
  33941.      Swedish Institute of Computer Science
  33942.      Box 1263
  33943.      S-164 28 Kista
  33944.      Sweden
  33945.  
  33946. Five copies are required for paper submissions. Electronic submissions
  33947. (uuencoded,  compressed  postscript) should be sent  to  each  program
  33948. chair. Authors should also e-mail the title, author names and abstract
  33949. of their  paper  to  each  program  chair  and  identify  any  special
  33950. equipment that will be required  during its  presentation. Due to  the
  33951. high number  of  anticipated  submissions,  authors are  encouraged to
  33952. strictly  adhere  to the  submission  date.  Contact  Patrick  Dowd at
  33953. dowd@eng.buffalo.edu or +1 716 645-2406 for more information about the
  33954. conference.
  33955.  
  33956. Student  Paper Award:  Papers  submitted  by  students  will  enter  a
  33957. student-paper award contest.  Among the  accepted papers, a maximum of
  33958. four outstanding  papers  will be awarded full conference registration
  33959. and  a travel grant of $500  US dollars.   To  be eligible the student
  33960. must be the  sole author, or the first author and primary contributor.
  33961. A  cover  letter  must  identify  the  paper as  a candidate  for this
  33962. competition.
  33963.  
  33964.  
  33965. Mail and E-mail Addresses:
  33966.  
  33967.     General Chair
  33968.  
  33969.     Jon Crowcroft
  33970.     Department of Computer Science
  33971.     University College London
  33972.     London WC1E 6BT United Kingdom
  33973.  
  33974.     Phone: +44 71 380 7296
  33975.     Fax: +44 71 387 1397
  33976.     E-Mail: J.Crowcroft@cs.ucl.ac.uk
  33977.  
  33978.  
  33979.     Program Chairs
  33980.  
  33981.     Stephen Pink (Program Chair)
  33982.     Swedish Institute of Computer Science
  33983.     Box 1263
  33984.     S-164 28 Kista
  33985.     Sweden
  33986.  
  33987.     Phone: +46 8 752 1559
  33988.     Fax: +46 8 751 7230
  33989.     E-mail: steve@sics.se
  33990.  
  33991.     Craig Partridge (Program Co-Chair for North America)
  33992.     BBN
  33993.     10 Moulton St
  33994.     Cambridge MA 02138
  33995.  
  33996.     Phone: +1 415 326 4541
  33997.     E-mail: craig@bbn.com
  33998.  
  33999.  
  34000.     Publicity Chair
  34001.  
  34002.     Patrick Dowd
  34003.     Department of Electrical and Computer Engineering
  34004.     State University of New York at Buffalo
  34005.     201 Bell Hall
  34006.     Buffalo, NY 14260-2050
  34007.  
  34008.     Phone: +1 716 645 2406
  34009.     Fax: +1 716 645 3656
  34010.     E-mail: dowd@eng.buffalo.edu
  34011.  
  34012.  
  34013.     Local Arrangements Chair
  34014.  
  34015.     Soren-Aksel Sorensen
  34016.     Department of Computer Science
  34017.     University College London
  34018.     London WC1E 6BT United Kingdom
  34019.  
  34020.  
  34021.  
  34022.  
  34023.  
  34024. Approved: parallel@hubcap.clemson.edu
  34025. Follow-up: comp.parallel
  34026. Path: bounce-back
  34027. Newsgroups: comp.parallel
  34028. From: barmar@Think.COM (Barry Margolin)
  34029. Subject: Re: AI and Parallel Machines
  34030. Date: 18 Nov 1993 23:15:50 GMT
  34031. Organization: Thinking Machines Corporation, Cambridge MA, USA
  34032. References: <1993Nov5.153315.2624@unocal.com>
  34033. Nntp-Posting-Host: telecaster.think.com
  34034.  
  34035. In article <1993Nov5.153315.2624@unocal.com> stgprao@st.unocal.COM (Richard Ottolini) writes:
  34036. >In article <1993Nov4.152811.24420@hubcap.clemson.edu> angelo@carie.mcs.mu.edu (Angelo Gountis) writes:
  34037. >>I am looking for references regrading the impact parallel processing has  
  34038. >>had on projects involving AI.
  34039. >Thinking Machines started as an A.I. company.
  34040. >They are one of the more successful parallel computing companies.
  34041. >There customer base is more scientific computing these days.
  34042.  
  34043. But not totally.  Here's part of a recent article about work done at one of
  34044. our customer sites (extracted from HPCwire):
  34045.  
  34046.     PSC Researcher Wins AI Award for CM-2 Translation Program
  34047.  
  34048.     Pittsburgh, Pa. -- Hiroaki Kitano imagines a society in which hand-held 
  34049.     computers will allow native and foreign speakers to converse on any 
  34050.     street corner. Just say a sentence in English and out come the 
  34051.     appropriate words in French. Kitano, a computer scientist specializing 
  34052.     in artificial intelligence (AI), is bypassing traditional AI methods to 
  34053.     tackle the translation challenge. And his efforts, which involved the 
  34054.     Connection Machine CM-2 at the Pittsburgh Supercomputing Center, has 
  34055.     earned him the most prestigious award in artificial intelligence for 
  34056.     researchers under 35. He received the Computers and Thought Award 
  34057.     Tuesday at the 13th International Joint Conference on Artificial 
  34058.     Intelligence in Chambery, France. 
  34059.  
  34060. The article goes on to say that he made use of a memory-based approach to
  34061. the implementation.  Memory-based reasoning (in which the program builds up
  34062. a database of past solutions, and looks for close matches when trying to
  34063. solve new problems) has been applied in many CM applications to AI; it's
  34064. one of the approaches that's only currently feasible on an MPP.
  34065.  
  34066. A number of Thinking Machines technical reports related to AI applications
  34067. have been published.  For specific references, get the file
  34068. think/trs/pub.list_abs, which contains information about all our published
  34069. technical reports.  Look for entries containing "KRNL" (Knowledge
  34070. Representation and Natural Languages), "vision", "learning", or "natural
  34071. language" in their Subject lines.
  34072.  
  34073. MPP technology has also been applied to the study of real intelligence.
  34074. One of our customers (sorry, I forget which) has studied scans of the
  34075. visual cortex in animals when it's responding to visual stimuli, and then
  34076. developed models of it on the CM.
  34077.  
  34078. I hope this post doesn't seem too biased or commercial; I'm sure people
  34079. have been doing AI research on other parallel processors, but these are
  34080. just the things I'm familiar with (I'm not a researcher, so I don't follow
  34081. the field in general).
  34082. -- 
  34083. Barry Margolin
  34084. System Manager, Thinking Machines Corp.
  34085.  
  34086. barmar@think.com          {uunet,harvard}!think!barmar
  34087.  
  34088. Approved: parallel@hubcap.clemson.edu
  34089. Follow-up: comp.parallel
  34090. Path: bounce-back
  34091. From: co1dll@ss5.sheffield.ac.uk (D Lamptey)
  34092. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  34093. Subject: Re: INMOS Information available on T9000
  34094. Followup-To: comp.sys.transputer,comp.arch,comp.parallel
  34095. Organization: Academic Computing Services, Sheffield University
  34096. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu> <1993Nov17.134249.25077@hubcap.clemson.edu>
  34097.  
  34098. John Corb (root@acid.unitedkingdom.NCR.COM) wrote:
  34099. : In article <1993Nov16.151841.3483@hubcap.clemson.edu> elwin@media.mit.edu (Lee W Campbell) writes:
  34100. : >In article <1993Nov11.213059.26255@hubcap.clemson.edu>, thompson@inmos.co.uk () writes:
  34101. : <deleted>
  34102. : >          The T9000  is the world's fastest single-chip computer, with
  34103. : >
  34104. : >how in the hell do they manage to call it "fastest'???
  34105.  
  34106. : they used sneaky wording -  "single-chip computer"
  34107. :                      ^^^^^^^^
  34108.  
  34109. sneaky wording is often a matter of how well you read something.
  34110. Just like "small-print". This print was not small, though.
  34111.  
  34112. : the alpha, pa-risc etc. are microprocessors, the t9000 is a microcomputer as
  34113. : it has cpu+memory+i/o all on chip, so it is a lot faster than 8051, z8 etc.
  34114. : (but them so's my pocket calculator :)
  34115. : they are trying to hype it as fast and it was the best they could come up with,
  34116. : it's a shame 'cos the t9000 is actually quite slick, sad huh?
  34117.  
  34118. It is not sad, and not hype. It is true. Transputers have traditionally 
  34119. been very powerful and cost effective in embedded type systems, where:
  34120.  
  34121.     The systems are often highly parallel (transputer cant be beaten)
  34122.     The transputer concept is cryingly close to the way parallel
  34123.     real-time systems are specified and designed.
  34124.  
  34125.     The chip count needs to be low (How does one sound?)
  34126.  
  34127.     The power consumption also needs to be low. (3 watts - 5 watts)
  34128.  
  34129. On a price to performance ratio for highly scalable systems, the transputer
  34130. is a strong contender. The alphas, etc have different strong points, i.e
  34131. brutal number-crunching,( and egg-frying).
  34132.  
  34133. In my usual objectiveness, I shall have to say that INMOS have'nt yet been
  34134. able to deliver on their promises and a lot of people have made decisions
  34135. to jump ship, because there are other devices offering performance on par
  34136. with the t9 specs (or better). But for embedded type systems, we are yet to
  34137. see anything els overtake the t9.
  34138.  
  34139. Derryck,
  34140.  
  34141. p.s. For an idea of what can be done with transputers, have a look round
  34142.      for the paper "Transputers on the Road" arising out the the WTC congress
  34143.     in Aachen by the Daimler Benz group. It is about a transputer
  34144.     system (around 19 t800 transputers) doing real time road-scene
  34145.     analysis, pattern and road-sign recognition, vehicle tracking and
  34146.     a whole lot more
  34147.  
  34148.  
  34149.  
  34150. Approved: parallel@hubcap.clemson.edu
  34151. Follow-up: comp.parallel
  34152. Path: bounce-back
  34153. From: brown@reed.edu (C. Titus Brown)
  34154. Newsgroups: comp.parallel,comp.unix.osf.osf1
  34155. Subject: Alpha chips in parallel/OS to go with
  34156. Date: 19 Nov 1993 10:58:11 GMT
  34157. Organization: Reed College, Portland, OR
  34158.  
  34159. I'm looking into getting a large number of Alpha chips to do
  34160. some parallel computing.  Does anyone know of any alternatives
  34161. to DECs Farm 1000 rack?  Does anyone have experience with the
  34162. Farm 1000 rack?
  34163.  
  34164. In addition, if anyone knows of a stripped down OS that will
  34165. work on the Alpha chip or could be ported to the Alpha chip,
  34166. so that we don't have to keep OSF/1 in memory on each chip,
  34167. please let me know...
  34168.  
  34169. I suppose I should give a general idea of the requirements:
  34170. relatively low amount of communication between the processors
  34171. (on the order of regular Ethernet); relatively low need for
  34172. disk space on each node/processor; PVM should work.
  34173.  
  34174. Currently we're also looking into a company called 'Avalon' (?)
  34175. which has something called the Q-board.  This apparently runs
  34176. only under OpenVMS when attached to a VAX; does anyone know
  34177. if Avalon or another company has this available for OSF/1?
  34178.  
  34179. Thanks,
  34180. --Titus
  34181. --
  34182. "Never put off until tomorrow, that which can be done the day after tomorrow"
  34183.           -- C. Titus Brown, anonymous student, brown@reed.edu
  34184.  
  34185. Meddle not in the affairs of dragons, for you are crunchy and good with ketchup.
  34186.  
  34187. Approved: parallel@hubcap.clemson.edu
  34188. Follow-up: comp.parallel
  34189. Path: bounce-back
  34190. Newsgroups: comp.parallel
  34191. From: D.Lamptey@sheffield.ac.uk (D Lamptey)
  34192. Subject: Re: INMOS Information available on T9000
  34193. Organization: Finnish Academic and Research Network Project - FUNET
  34194.  
  34195. Hi,
  34196.  
  34197. John Corb <root@acid.unitedkingdom.NCR.COM>   wrote:
  34198.  
  34199. In article <1993Nov16.151841.3483@hubcap.clemson.edu> elwin@media.mit.edu (Lee W Campbell) writes:
  34200. >In article <1993Nov11.213059.26255@hubcap.clemson.edu>, thompson@inmos.co.uk () writes:
  34201. <deleted>
  34202. >
  34203. >          The T9000  is the world's fastest single-chip computer, with
  34204. >          its 200  MIPS, 25  MFLOPS peak  performance and  its  32-bit
  34205. >          superscalar integer  processor, 64-bit  floating point unit,
  34206. >          virtual channel  processor, 100Mbits/s  communications ...
  34207. >
  34208. >World's fastest WHAT? Slower than Alpha, HP PA-RISC, RS/6000, R3000,
  34209. >R4000, supersparc, Pentium, and roughly comperable to a fast '486, so 
  34210. >how in the hell do they manage to call it "fastest'???
  34211.  
  34212. they used sneaky wording -  "single-chip computer"
  34213.                                          ^^^^^^^^
  34214.  
  34215. the alpha, pa-risc etc. are microprocessors, the t9000 is a microcomputer as
  34216. it has cpu+memory+i/o all on chip, so it is a lot faster than 8051, z8 etc.
  34217. (but them so's my pocket calculator :)
  34218.  
  34219. they are trying to hype it as fast and it was the best they could come up with,
  34220. it's a shame 'cos the t9000 is actually quite slick, sad huh?
  34221.  
  34222. ---- End included message ----
  34223.  
  34224. Sneaky wording does depend on how well the document is read. The transputer is undoubtedly
  34225. ahead when it comes to the areas of stuff like distributed/embedded/real-time control. Because
  34226.  
  34227.     Parallelism is easily expressed.
  34228.  
  34229.     Low chip count -> higher reliability, etc.
  34230.  
  34231.     Low power consumption. (3 watts to around 5)
  34232.  
  34233. The devices we are talking about have different strengths. Transputers are better suited to
  34234. real-time/embedded type systems and the others not so much. You would not use a transputer as
  34235. a compute-engine if there was an alpha available. (And you can't fry eggs on a transputer)
  34236.  
  34237. That aside, for highly parallel highly scalable systems, transputers provide a very favourable 
  34238. option in terms of performance/price. Those interested in the truth are referred to a paper
  34239. arising out of the Aachen WTC congress in september by the Daimler Benz group called 
  34240. "Transputers on the Road" featuring a transputer -based system for autonomous driving (up to 90mph)
  34241. with real-time object recognition and avoidance, lane tracking, road-sign recognition and a lot
  34242. more. (It was something like 19 t800 transputers).
  34243.  
  34244. That aside, INMOS have not delivered on their promises as yet. (2 yrs late?) This has resulted in
  34245. a great erosion of support for their machines, especially as other devices of similar functionality
  34246. (maybe more costly) have shown up. But for the embedded market, the transputer still remains one of
  34247. the best suited.
  34248.  
  34249. Derryck. 
  34250.  
  34251.  
  34252.  
  34253.  
  34254.  
  34255. Newsgroups: news.announce.conferences
  34256. Path: risc.uni-linz.ac.at!conpar94
  34257. From: conpar94@risc.uni-linz.ac.at (CONPAR 94)
  34258. Subject: CFP: CONPAR 94 (Correction)
  34259. Followup-To: comp.parallel
  34260. Keywords: call for papers, parallel and vector processing
  34261. Sender: netnews@risc.uni-linz.ac.at (Netnews SW Account)
  34262. Nntp-Posting-Host: melmac.risc.uni-linz.ac.at
  34263. Organization: RISC, J.K. University of Linz, Austria
  34264. Date: Thu, 18 Nov 1993 09:11:20 GMT
  34265. Apparently-To: uunet!comp-parallel
  34266.  
  34267. The previously posted call for papers was an old version
  34268. that did not include the complete program committee.
  34269. Please use and propagate this version.
  34270.  
  34271. -----------------------------------------------------------------------------
  34272.  
  34273.                             CONPAR 94 - VAPP VI
  34274.  
  34275.                 Johannes Kepler University of Linz, Austria
  34276.                             September 6-8, 1994
  34277.  
  34278.  
  34279.                             Second Announcement
  34280.                                   and
  34281.                              Call For Papers
  34282.  
  34283.  
  34284. The past decade has seen the emergence of two highly successful series of
  34285. CONPAR and of VAPP conferences on the subject of parallel processing. The
  34286. Vector and Parallel Processors in Computational Sciene meetings were held in
  34287. Chester (VAPP I, 1981), Oxford (VAPP II, 1984), and Liverpool (VAPP III,
  34288. 1987). The International Conferences on Parallel Processing took place in
  34289. Erlangen (CONPAR 81), Aachen (CONPAR 86) and Manchester (CONPAR 88). In 1990
  34290. the two series joined together and the CONPAR 90 - VAPP IV conference was
  34291. organized in Zurich. CONPAR 92 - VAPP V took place in Lyon, France.
  34292.  
  34293. The next event in the series, CONPAR 94 - VAPP VI, will be organized in 1994
  34294. at the University of Linz (Austria) from September 6 to 8, 1994. The format of
  34295. the joint meeting will follow the pattern set by its predecessors. It is
  34296. intended to review hardware and architecture developments together with
  34297. languages and software tools for supporting parallel processing and to
  34298. highlight advances in models, algorithms and applications software on vector
  34299. and parallel architectures.
  34300.  
  34301. It is expected that the program will cover:
  34302.  
  34303. * languages / software tools    * automatic parallelization and mapping
  34304. * hardware / architecture       * performance analysis
  34305. * algorithms                    * applications
  34306. * models / semantics            * paradigms for concurrency
  34307. * testing and debugging         * portability
  34308.  
  34309. A special session will be organized on Parallel Symbolic Computation.
  34310.  
  34311. The proceedings of the CONPAR 94 - VAPP VI conference are intended to be
  34312. published in the Lecture Notes in Computer Science series by Springer Verlag.
  34313.  
  34314. This conference is organized by GUP-Linz in cooperation with RISC-Linz, ACPC
  34315. and IFSR. Support by GI-PARS, OCG, OGI, IFIP WG10.3, IEEE, ACM, AFCET, CNRS,
  34316. C3, BCS-PPSG, SIG and other organizations is being negotiated.
  34317.  
  34318. Schedule:
  34319.  
  34320. Submission of complete papers and tuturials            Feb 15 1994
  34321. Notification of acceptance                             May 1 1994
  34322. Final (camera-ready) version of accepted papers        July 1 1994
  34323.  
  34324. Paper submittance:
  34325.  
  34326. Contributors are invited to send five copies of a full paper not exceeding 15
  34327. double-spaced pages in English to the program committee chairman at:
  34328.  
  34329.        CONPAR 94 - VAPP VI
  34330.        c/o Prof. B. Buchberger
  34331.        Research Institute for Symbolic Computation (RISC-Linz) 
  34332.        Johannes Kepler University, A-4040 Linz, Austria 
  34333.        Phone: +43 7236 3231 41, Fax: +43 7236 3231 30 
  34334.        Email: conpar94@risc.uni-linz.ac.at
  34335.  
  34336. The title page should contain a 100 word abstract and five specific keywords.
  34337.  
  34338. CONPAR/VAPP also accepts and explicitly encourages submission by electronic
  34339. mail to conpar94@risc.uni-linz.ac.at. Submitted files must be either
  34340.  
  34341. * in uuencoded (preferably compressed) DVI format or
  34342. * in uuencoded (preferably compressed) Postscript format
  34343.  
  34344. as created on most Unix systems by
  34345.  
  34346. cat paper.ps | compress | uuencode paper.ps.Z > paper.uue
  34347.  
  34348. Organising committee:
  34349.  
  34350. Conference Chairman:    Prof. Jens Volkert
  34351. Honorary Chairman:    Prof. Wolfgang Handler
  34352. Program Chairman:    Prof. Bruno Buchberger
  34353. Members:            Siegfrid Grabner, Wolfgang Schreiner
  34354. Conference Address:    
  34355.         
  34356.         University of Linz, 
  34357.     Dept. of Computer Graphics and Parallel Processing (GUP-Linz), 
  34358.     Altenbergerstr. 69, A-4040 Linz, Austria
  34359.     Tel.: +43-732-2468-887 (885), Fax.: +43-732-2468-10
  34360.     Email: conpar94@gup.uni-linz.ac.at
  34361.  
  34362. Program committee:
  34363.  
  34364. Chairman: Bruno Buchberger (Austria)
  34365.  
  34366. Makoto Amamiya (Japan), Francoise Andre (France), Marco Annaratone (USA), P.C.P. Bhatt (India), 
  34367. Dario Bini (Italy), Arndt Bode (Germany), Kiril Boyanov, Helmar Burkhart (Switzerland), 
  34368. Cristina Coll (Spain), Michel Cosnard (France), Frank Dehne (USA), Mike Delves (UK), 
  34369. Ed F. Deprettere (The Netherlands), Jack Dongarra (USA), Iain Duff (UK), Klaus Ecker (Germany), 
  34370. John P. ffitch (UK), Rolf Fiebrich (USA), Ian Foster (USA), Geoffrey Fox (USA), 
  34371. Christian Fraboul (France), Wolfgang Gentzsch (Germany), Thomas Gross (USA), Gaetan Hains (Canada), 
  34372. Guenter Haring (Austria), Hiroki Honda (Japan), Hoon Hong (Austria), F. Hossfeld (Germany), 
  34373. Roland N. Ibbett (UK), Chris Jesshope (UK), Harry Jordan (USA), Peter Kacsuk (Hungary), 
  34374. Erich Kaltofen (USA), Hironori Kasahara (Japan), Wolfgang Kleinert (Austria), 
  34375. Wolfgang Kuechlin (Germany), Otto Lange (Germany), Michael A. Langston (USA), 
  34376. Allen D. Malony (USA), Alfonso Miola (Italy), Nikolay Mirenkov (Japan), Yoichi Muraoka (Japan), 
  34377. David A. Padua (USA), Cherri Pancake (USA), Dennis Parkinson (UK), Guy-Rene Perrin (France), 
  34378. Ron Perrot (UK), Bernard Philippe (France), Brigitte Plateau (France), Ramon Puigjaner (Spain), 
  34379. Michael J. Quinn (USA), Gerard L. Reijns (The Netherlands), Karl-Dieter Reinartz (Germany), 
  34380. Dirk Roose (Belgium), Bl. Sendov (Bulgaria), Othmar Steinhauser (Austria), Ondrej Sykora (Slovakia), 
  34381. Denis Trystram (France), Marco Vanneschi (Italy), Paul Vitanyi (The Netherlands), 
  34382. Jens Volkert (Austria), R. Wait (UK), Paul S. Wang (USA), Peter Zinterhof (Austria) 
  34383.  
  34384. Reply Form:
  34385.  
  34386. We encourage you to reply via e-mail, giving us the information listed below.
  34387. If you do not have the possibility to use e-mail, please copy the form below
  34388. and send it to the conference address.
  34389.  
  34390.  
  34391.                       CONPAR 94 - VAPP VI 
  34392.                             Reply Form
  34393.  
  34394.  
  34395. Name:..................................First Name................Title.........
  34396.     
  34397. Institution:...................................................................
  34398.  
  34399. Address:.......................................................................
  34400.  
  34401. Telephone:.....................Fax:...........................E-Mail:..........
  34402.  
  34403. Intentions (please check appropriate boxes)
  34404.  
  34405.     o    I expect to attend the conference
  34406.     o    I wish to present a paper
  34407.     o    I wish to present at the exhibition (industrial / academic)
  34408.  
  34409.  
  34410.  
  34411.  
  34412.  
  34413. Approved: parallel@hubcap.clemson.edu
  34414. Follow-up: comp.parallel
  34415. Path: bounce-back
  34416. Newsgroups: comp.parallel
  34417. Subject: HPCN Europe 1994, Second Call for Papers
  34418. From: SONDCRAY@HASARA11.SARA.NL
  34419. Organization: S.A.R.A. Academic Computing Services Amsterdam
  34420.  
  34421.                       2nd CALL for PAPERS
  34422.  
  34423. HPCN Europe 1994
  34424. The  European  Conference  and Exhibition  on  High-Performance
  34425. Computing and Networking
  34426. Munich, Germany
  34427.  
  34428.  
  34429. HPCN  Europe  1994 is scheduled from April 18-20, 1994  at  the
  34430. Sheraton Hotel Munich, Germany. The conference is supported  by
  34431. an  advisory  board consisting of over 70 leading  experts  and
  34432. representatives  from  the  CEC,  the  Rubbia  Committee,   The
  34433. European Industrial Initiative Ei3, the scientific and research
  34434. community as well as most of the computer manufacturers. It  is
  34435. accompanied  by  the  largest  European  HPCN  Exhibition.  The
  34436. conference  is  sponsored  by the Commission  of  the  European
  34437. Communities and Royal Dutch Fairs.
  34438.  
  34439. The  aim  of the conference and exhibition is to offer  to  the
  34440. HPCN   community   the  European  forum  for   high-performance
  34441. computing  and  networking with focus on  real  industrial  and
  34442. scientific  applications. The conference will  consist  of  the
  34443. following sessions:
  34444.  
  34445. 1.Engineering Applications
  34446. 2.Computational Chemistry and Biology
  34447. 3.Computational Physics
  34448. 4.Seismic Applications
  34449. 5.Environmental Applications
  34450. 6.Embedded Parallel Systems
  34451. 7.Commercial Applications
  34452. 8.Computer Science Aspects
  34453. 9.Novel Applications
  34454. 10.Storage Technology
  34455. 11.Networking
  34456. 12.European Activities
  34457. 13.Panels on Actual Topics
  34458.  
  34459. In  addition,  a vendor session featuring product presentations
  34460. from  vendors participating in the exhibition will take  place.
  34461. Conference   Chairpersons  are  Prof.  Wolfgang  Gentzsch,   FH
  34462. Regensburg, Prof. Dorte Olsen, University of Copenhagen,  Prof.
  34463. Bob Hertzberger, University of Amsterdam.
  34464.  
  34465. For the HPCN Europe 1994 conference, key note presentations and
  34466. invited lecturers by leading scientists and users from all over
  34467. the  world are scheduled. Until now, the following experts have
  34468. agreed to present an invited talk:
  34469.  
  34470.  
  34471. Dr.W. Brandstaetter, AVL  Graz:
  34472.                         The  FIRE  code   on Parallel Computers
  34473.  
  34474. Mr.H. Forster, CEC Brussels:
  34475.                            The  European  Framework-4 Programme
  34476.  
  34477. Mr.R. Herken, mental images Berlin:
  34478.                          Parallel  High-Quality Image Rendering
  34479.  
  34480. Dr.M. Hillmann, INPRO Berlin:
  34481.                       Simulation  of    Metal Forming Processes
  34482.  
  34483. Dr.B. Madahar, GEC Marconi, Hirst Research Center:
  34484.       HPC Applications in Image Processing and Embedded Systems
  34485.  
  34486. Dr.J. Murphy, British Aerospace Bristol:
  34487.                 Requirements in the European Aerospace Industry
  34488.  
  34489. Prof.N. Petkov, University of Groningen:
  34490.                                     Computational Neuro Science
  34491.  
  34492. Prof.Y. Robert, Ecole Nationale Superieure de Lyon:
  34493.                                         Parallelizing Compilers
  34494.  
  34495. Prof.H. van der Vorst, University of Utrecht:
  34496.             Highly Parallel Hybrid Biconjugate Gradient Methods
  34497.  
  34498. Prof.H. Zima, University of Vienna:
  34499. Advanced Implementation Techniques for High Performance FORTRAN
  34500.  
  34501. Mr. C. Skelton, ICL Manchester:
  34502.                    Parallel Information Processing Applications
  34503.  
  34504.  
  34505. In  addition,  Technology Demonstrators will  demonstrate  real
  34506. applications  on real parallel machines. It is illustrated  how
  34507. the   experience  gained  in  universities  and  research  labs
  34508. concerning  algorithms,  parallel programming  and  porting  of
  34509. codes  to parallel computers, can be transferred directly  into
  34510. industry.
  34511.  
  34512. PAPER SUBMISSION
  34513.  
  34514. Potential  speakers  are  invited  to  submit  papers  to   the
  34515. Conference  Secretariat at the address  given  below.  Extended
  34516. abstracts  (2 pages minimum) are acceptable, full  papers  have
  34517. our  preference. The abstracts/papers will be refereed  by  the
  34518. programme committee.
  34519.  
  34520. Papers  are  expected to be submitted on scientific, industrial
  34521. and commercial applications and networking, on tools, languages
  34522. and  algorithms  (see the sessions mentioned  above).  Extended
  34523. abstracts and full papers should contain:
  34524.  
  34525.    title,  authors, full address, telephone, fax number, E-mail
  34526.    address,  introduction,  description,  results,  discussion,
  34527.    conclusions
  34528.  
  34529. The  original  and three copies must be sent to the  Conference
  34530. Secretariat. The deadline for paper submissions is November 30,
  34531. 1993.
  34532.  
  34533. PROPOSE A POSTER
  34534.  
  34535. Authors  preferring  an informal, interactive  presentation  of
  34536. results  may  submit a proposal for a poster. The deadline  for
  34537. poster proposals is November 30, 1993.
  34538.  
  34539. PARTICIPATION IN THE TECHNOLOGY DEMONSTRATORS DISPLAY
  34540.  
  34541. Central  in  this  Technology Demonstrators Display,  are  HPCN
  34542. centers in their role as technology transfer focal points. They
  34543. are  asked, together with the vendors and developers, to design
  34544. demonstrations related to the conference. A high-speed  network
  34545. giving   access   to  all  available  machines  necessary   for
  34546. demonstrations  purposes will be installed.  Vendors  who  have
  34547. real  systems  running  at the fair as well  as  HPCN  research
  34548. centers  willing to demonstrate and run real applications,  are
  34549. requested to contact the Technology Demonstrators Display Chair
  34550. Ad  Emmen (Tel: +31 20 5923 000). The deadline is November  30,
  34551. 1993.
  34552.  
  34553. Registration Fee:
  34554.  
  34555. Early  registration  before March 1, 1994: DM 480,-  (research),
  34556. DM 750,- (industry)
  34557. Late   registration  after  March   1,   1994        DM   580,-
  34558. (research),   DM 850,- (industry)
  34559.  
  34560. Special  registration fee on a per day basis and  for  students
  34561. will  also  be  possible. More detailed information  concerning
  34562. registration,  accomodation,  transportation,   etc.   may   be
  34563. obtained   after   January  1,  1994  through  the   Conference
  34564. Secretariat.
  34565.  
  34566. For information about the HPCN Europe 1994 Conference please
  34567. contact:
  34568.  
  34569. HPCN Europe 1994, Conference Secretariat
  34570. Prof. Wolfgang Gentzsch
  34571. Erzgebirgstrasse 2
  34572. D-93073 Neutraubling
  34573. Tel. +49 9401 9200 0
  34574. Fax. +49 9401 9200 92
  34575. email: mbox@genias.de
  34576.  
  34577. --
  34578. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
  34579. Wolfgang Gentzsch                        GENIAS Software GmbH
  34580. Erzgebirgstr. 2;        D-93073 Neutraubling;         Germany
  34581. Phone: +49 9401 9200-0 | FAX: +920092 | e-mail gent@genias.de
  34582. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
  34583.  
  34584.  
  34585. Approved: parallel@hubcap.clemson.edu
  34586. Follow-up: comp.parallel
  34587. Path: bounce-back
  34588. Newsgroups: comp.parallel
  34589. From: nagrwb@vax.oxford.ac.uk (Richard W Brankin)
  34590. Subject: Job Opportunity-NAG, Oxford, UK
  34591. Organization: Oxford University VAX 6620
  34592.  
  34593. Readers of this group may be interested in a job opportunity at NAG Ltd.
  34594. Please see misc.jobs.offered, uk.jobs.offered for details.
  34595. -- 
  34596. ** R.W. Brankin -- Numerical Algorithms Group Ltd. -- nagrwb@vax.ox.ac.uk **
  34597. **   suggestions for sig. welcome   --   will need   include<std.discl>   **
  34598.  
  34599. Approved: parallel@hubcap.clemson.edu
  34600. Follow-up: comp.parallel
  34601. Path: bounce-back
  34602. Newsgroups: comp.parallel
  34603. From: tavanapo@cs.ucf.edu (Wallapak Tavanapong)
  34604. Subject: nCUBE file access
  34605. Organization: University of Central Florida
  34606.  
  34607. Hi
  34608.   I'm doing an experiment about parallel algorithms on nCUBE 2 machine, and
  34609. I need to read and write data to different files which reside on different 
  34610. nCUBE disks in paralell.  I used xnc -l to load a program onto a subcube,
  34611. and I wanted to distribute data files onto different nCUBE disks; however, 
  34612. what I got is those files were written on the host node disk. I would like to
  34613. know whether there is a way I can do that.  My experiment depends on
  34614. paralell file accesses, so it's important to me to figure out the way.  
  34615.   If you have any suggestions, please let me know.  Thank you very much
  34616. for your help
  34617.  
  34618. Sincerely,
  34619.  
  34620. Wallapak Tavanapong
  34621.  
  34622.  
  34623. Approved: parallel@hubcap.clemson.edu
  34624. Follow-up: comp.parallel
  34625. Path: bounce-back
  34626. Newsgroups: comp.parallel
  34627. From: kaaza@Informatik.TU-Muenchen.DE (Kaaz)
  34628. Subject: parallel RPC
  34629. Organization: TU M"unchen (FRG)
  34630.  
  34631. Hi everybody
  34632.  
  34633. I'm trying to develop and implement a Client-Server-Modell based on RPC 
  34634. (transport mechanism TCP!) for parallel programming environments (like
  34635. PVM, P4, NX).
  34636.  
  34637. With an ordinary RPC the server gets one request, process it, an sends 
  34638. back a reply to that Client. But unfortunately this is not enough for 
  34639. my purposes. 
  34640.  
  34641. Under certain circumstances the server first must get requests by ALL 
  34642. clients involved in a parallel application (e.g. to check for consistence 
  34643. of the passed arguments by each client), process the according procedure, 
  34644. and than he should send back replies to ALL clients. 
  34645.  
  34646. Because the need of TCP I'm not able to use something like "callback 
  34647. broadcasting".
  34648.  
  34649. Does anybody has any clue or a hint, where to find articles about it?
  34650. thanks, Andre
  34651.  
  34652. Approved: parallel@hubcap.clemson.edu
  34653. Follow-up: comp.parallel
  34654. Path: bounce-back
  34655. Newsgroups: comp.parallel
  34656. From: arajakum@mtu.edu (Rajakumar)
  34657. Subject: Re:The future of parallel computing
  34658. Organization: Michigan Technological University
  34659.  
  34660.     I have been following the thread with rapt attention :-) and would like
  34661. to contibute my two cents worth...
  34662.  
  34663.     A few weeks back, I saw a magazine ( I forget which ) where a graph of
  34664. the supercomputer industry was plotted. The graph was flat for the past few years.
  34665. Now, that got me thinking. The need for parallel computing was fuelled by
  34666. military research. Now that the superstructure is being dismantled, the market
  34667. for MPP especially is shrinking. Doesn't this mean that the future of parallel
  34668. computing lies in distrubuted processing rather than in MPP?
  34669.  
  34670.     Forgive me my wet-behind-the-ears attitude, but I guess I want
  34671. reassurance that the field I want to be in for the rest of my research life will
  34672. not disappear somewhere down the line.
  34673.  
  34674. -- 
  34675. -->AR<--
  34676. Anthony Rajakumar        arajakum@mtu.edu
  34677. Grad Student
  34678. Michigan Tech
  34679. Houghton MI49931.
  34680.  
  34681.  
  34682.  
  34683. Approved: parallel@hubcap.clemson.edu
  34684. Follow-up: comp.parallel
  34685. Path: bounce-back
  34686. Newsgroups: comp.parallel
  34687. From: DSPWorld@world.std.com (Amnon Aliphas)
  34688. Subject: Wanted: ICSPAT '94 Technical Review Committee Members
  34689. Organization: The World Public Access UNIX, Brookline, MA
  34690.  
  34691. We are seeking committee members to assist in reviewing papers submitted for
  34692. inclusion in ICSPAT '94. The International Conference on Signal Processing
  34693. Applications and Technology.
  34694.  
  34695. The Fifth Annual ICSPAT will convene in Texas in the fall of 1994. The members
  34696. of the committee should be design, development, application engineers with a
  34697. strong background in DSP technology. Last month, ICSPAT'93 in Santa Clara,
  34698. California, included close to 400 papers in a range of application areas
  34699. including: audio and speech; automotive; biomedical, communications and
  34700. telephony, consumer applications, digital filters, DSP algorithms, image
  34701. analysis and coding, image processing, instrumentation and testing, multimedia,
  34702. neural networks, parallel processing, etc. This is a volunteer position. 
  34703.  
  34704. Members of the Technical Review Committee will be invited to participate in
  34705. the conference and will receive consideration to act as ICSPAT Session
  34706. Chairpersons.  (There's some work involved, but there is great potential for
  34707. glory!).  We plan to select the members of the Technical Review Committee by
  34708. 26 November 1993.
  34709.  
  34710. If you are interested in being considered for the Review Committee, please
  34711. contact us by mail, e-mail, or fax, as soon as possible. 
  34712.  
  34713. Attn: review committee Selection        phone: 617-964-3817
  34714. DSP Associates                        fax:   617-969-6689
  34715. 18 Peregrine Road                email:DSPWorld@world.std.com
  34716. Newton Centre, MA 02159
  34717.  
  34718. Approved: parallel@hubcap.clemson.edu
  34719. Follow-up: comp.parallel
  34720. Path: bounce-back
  34721. Newsgroups: comp.parallel,comp.lang.fortran,comp.sys.super
  34722. From: forge@netcom.com (FORGE Customer Support)
  34723. Subject: Info on APR's FORGE Products Available by Anon FTP
  34724. Followup-To: comp.parallel
  34725. Keywords: APR FORGE Parallelizers FTP
  34726. Organization: Applied Parallel Research, Inc. 
  34727. Date: Fri, 19 Nov 1993 21:24:55 GMT
  34728. Apparently-To: comp-parallel@uunet.uu.net
  34729.  
  34730.  
  34731. Due to the great interest in our Fortran parallelizing and analysis tools
  34732. at SuperComputing 93 and from email, we have made information regarding
  34733. our products available by anonymous FTP.
  34734.  
  34735. Very soon, we will be distributing evaluation copies of our products by
  34736. this same anonymous FTP scheme. After downloading and installing the
  34737. software you would then have to call us to obtain a license key to enable
  34738. the software for a fixed 15 or 30 day trial. But more about that later.
  34739.  
  34740. To access our product information files, do the following:
  34741.  
  34742. 1) FTP to   netcom.com
  34743.    logging in as  anonymous   and give your own email
  34744.    address as a password.
  34745.  
  34746. 2) change directory to pub/forge/ProductInfo
  34747.  
  34748. 3) use  get file_name  to download to your machine
  34749.    the ascii text files in this directory.
  34750.  
  34751. 4) close FTP by typing  quit at the prompt.
  34752.  
  34753. Here is a sample session:
  34754.  
  34755. -------------------------------------------------------------------
  34756. amber<12>% ftp netcom.com
  34757. Connected to netcom.com.
  34758. 220 netcom FTP server (SunOS 4.1) ready.
  34759. Name (netcom.com:forge): anonymous
  34760. 331 Guest login ok, send ident as password.
  34761. Password:xxxxxxxxxxxx
  34762. 230 Guest login ok, access restrictions apply.
  34763. ftp> cd pub/forge/ProductInfo
  34764. 250 CWD command successful.
  34765. ftp> dir
  34766. 200 PORT command successful.
  34767. 150 ASCII data connection for /bin/ls (192.100.81.107,3045) (0 bytes).
  34768. total 72
  34769. -rwxr-xr-x       1052 Nov 19 19:41 README
  34770. -rwxr-xr-x      10233 Nov 19 19:31 dpf.man.txt
  34771. -rwxr-xr-x       8125 Nov 19 19:31 dpf_datasheet.txt
  34772. -rwxr-xr-x       8813 Nov 19 19:31 forge90_datasheet.txt
  34773. -rwxr-xr-x       7258 Nov 19 19:31 forgex_datasheet.txt
  34774. -rwxr-xr-x       7273 Nov 19 19:31 magic_datasheet.txt
  34775. -rwxr-xr-x       7074 Nov 19 19:31 news.txt
  34776. -rw-------       1923 Nov 19 20:47 pricing.txt
  34777. -rwxr-xr-x      11160 Nov 19 19:31 xhpf.man.txt
  34778. -rwxr-xr-x       6580 Nov 19 19:31 xhpf_datasheet.txt
  34779. 226 ASCII Transfer complete.
  34780. 713 bytes received in 0.3 seconds (2.3 Kbytes/s)
  34781. ftp> get README
  34782. 200 PORT command successful.
  34783. 150 ASCII data connection for README (192.100.81.107,3114) (1052 bytes).
  34784. 226 ASCII Transfer complete.
  34785. local: README remote: README
  34786. 1089 bytes received in 0.023 seconds (46 Kbytes/s)
  34787. ftp> quit
  34788. -------------------------------------------------------------------
  34789.  
  34790. The README file describes the files in this directory.
  34791.  
  34792. It was a pleasure meeting many of you at SC 93 in Portland this
  34793. week.  Stay tuned to comp.{parallel,lang.fortran,sys.super} for more
  34794. information.
  34795.  
  34796. <Richard Friedman>
  34797. -- 
  34798.  ///  Applied  ///     FORGE 90 Customer Support Group
  34799.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  34800.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  34801.  
  34802. Approved: parallel@hubcap.clemson.edu
  34803. Follow-up: comp.parallel
  34804. Path: bounce-back
  34805. Newsgroups: comp.parallel
  34806. From: kelly@pdx154.intel.com (J.Kelly Flanagan)
  34807. Subject: Available MP Machines
  34808. Sender: news@ichips.intel.com (News Account)
  34809. Organization: Intel Corp., Hillsboro, Oregon
  34810. Date: Sat, 20 Nov 1993 02:12:41 GMT
  34811. Apparently-To: uunet.uu.net!comp-parallel
  34812.  
  34813.  
  34814.  
  34815.     I am interested in a survey of existing commercial
  34816.     multiprocessor machines.  If this has been covered here before
  34817.     please let me know where the FAQ is and I'll go away.  If it
  34818.     hasn't been please let me know what companies and products are 
  34819.     available and I will summarize to the net if there is
  34820.     interest.
  34821.  
  34822.     I am interested in shared memory, distributed memory, you name
  34823.     it I'll listen :-)
  34824.  
  34825.     Kelly
  34826.  
  34827.  
  34828.  
  34829.     
  34830. --
  34831. ==========================================================================
  34832. J. Kelly Flanagan    ON SABBATICAL @ INTEL    J. Kelly Flanagan
  34833. Computer Science Dept.    9/93 through 4/94    Intel Corp.
  34834. Brigham Young University    |        JF1-91
  34835. 3372 TMCB            |        5200 NE Elam Young Parkway
  34836. PO BOX 26576            |        Hillsboro, OR 97124
  34837. Provo, UT 84602-6576        |
  34838.                 |
  34839. kelly@cs.byu.edu        |        kelly@ichips.intel.com
  34840. work: (801)-378-6474        |        work: 503-696-4117
  34841. fax:  (801)-378-7775        |        home: 503-693-1130
  34842.  
  34843. Approved: parallel@hubcap.clemson.edu
  34844. Follow-up: comp.parallel
  34845. Path: bounce-back
  34846. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  34847. From: menes@statistik.tu-muenchen.de (Rainer Menes)
  34848. Subject: Re: INMOS Information available on T9000
  34849. Followup-To: comp.sys.transputer,comp.arch,comp.parallel
  34850. Sender: news@sunserver.lrz-muenchen.de (Mr. News)
  34851. Organization: IAMS
  34852. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu> <1993Nov17.134249.25077@hubcap.clemson.edu> <1993Nov19.133529.9033@hubcap.clemson.edu>
  34853. Date: Sat, 20 Nov 1993 18:03:17 GMT
  34854. Apparently-To: comp-parallel@news.Germany.EU.net
  34855.  
  34856. In article <1993Nov19.133529.9033@hubcap.clemson.edu>,
  34857. co1dll@ss5.sheffield.ac.uk (D Lamptey) wrote:
  34858.  
  34859.                           .
  34860.                        stuff deleted
  34861.                           .
  34862.  
  34863. > It is not sad, and not hype. It is true. Transputers have traditionally 
  34864. > been very powerful and cost effective in embedded type systems, where:
  34865. >
  34866.  
  34867. That right. I like to use transputer for realtime control. I don't know any
  34868. other systems which gives me such flexible eviroment.
  34869.  
  34870. >     The systems are often highly parallel (transputer cant be beaten)
  34871. >     The transputer concept is cryingly close to the way parallel
  34872. >     real-time systems are specified and designed.
  34873. >
  34874.  
  34875. Not only for realtime application the transuters are very good. For
  34876. parallel
  34877. programing for mathematical programs or something like that, we most the
  34878. time
  34879. get 70 - 90% speedup with our programs. I don't know what other parallel
  34880. architectures offer, but yesterday I made a parallel version of a big
  34881. program
  34882. in just 8 hours with C and VCR. The speedup is 85% to the unparallel
  34883. version.
  34884. We now will be able to use up to 129 transputers. Very fast and I doubt
  34885. that
  34886. a Alpha box is faster. I have to proff this next week.
  34887.  
  34888. >     The chip count needs to be low (How does one sound?)
  34889. >     The power consumption also needs to be low. (3 watts - 5 watts)
  34890. > On a price to performance ratio for highly scalable systems, the transputer
  34891. > is a strong contender. The alphas, etc have different strong points, i.e
  34892. > brutal number-crunching,( and egg-frying).
  34893. > In my usual objectiveness, I shall have to say that INMOS have'nt yet been
  34894. > able to deliver on their promises and a lot of people have made decisions
  34895. > to jump ship, because there are other devices offering performance on par
  34896. > with the t9 specs (or better). But for embedded type systems, we are yet to
  34897. > see anything els overtake the t9.
  34898. >
  34899.  
  34900. Hm we do alot realtime controlling with transputers, and the only
  34901. transputer
  34902. which meets our needs are the T2 series of transuters. The 32 bit T4 and T8
  34903. are too expensive for most realtime needs. (I mean to produce several
  34904. hunderts
  34905. systems a year and not special machines like down below "Transputers on the
  34906. Road"). Also performance differs not to much as long you don't have to do
  34907. floating point. A T2 25MHz is for IO things as fast as a 25MHz T8 or very
  34908. close, but coasts four times the price. I doubt INMOS will be able to sell
  34909. the T9 for a price where the chip is very interesting for realtime
  34910. controlling
  34911. in massproduction. A chip price about 20$ - 50$ is what you could pay, and
  34912. not 300$ - 600$. Look at the T8 the prices haven't changed very mutch in
  34913. the last years. This is something I don't understand. I think the T9 is a
  34914. death end
  34915. for INMOS. They better should have produced new chips with better
  34916. performance,
  34917. and stepwise make a chip which meets the T9 idea. "Rom wasn't build in a
  34918. day",
  34919. so the T9, but 2 - 3 years of waiting for a chip is unparalleled after
  34920. its orginal annonce date. What about a T900 which is pin compatible with
  34921. the T800 and has a twice as fast execition timing and some improfments of
  34922. the T9000
  34923. project. This makes money keeps most of us happy and helps INMOS to control
  34924. there process for production and learn step by step.  
  34925.  
  34926. > Derryck,
  34927. > p.s. For an idea of what can be done with transputers, have a look round
  34928. >      for the paper "Transputers on the Road" arising out the the WTC congress
  34929. >     in Aachen by the Daimler Benz group. It is about a transputer
  34930. >     system (around 19 t800 transputers) doing real time road-scene
  34931. >     analysis, pattern and road-sign recognition, vehicle tracking and
  34932. >     a whole lot more
  34933.  
  34934. Rainer,
  34935.  
  34936. P.S: I still enjoy programing transputers and will continue to use the for
  34937. our projects, but the marketing at INMOS is the stupid. I not talking about
  34938. the designer and programers, only the marketing is bad.
  34939.  
  34940. --------------------------------------------------------------------------
  34941. Rainer Menes                                menes@statistik.tu-muenchen.de
  34942.  
  34943. Transputer Development Group         IAMS - Technical University of Munich
  34944.  
  34945. Tel: 49 89 2105 8226
  34946. Fax: 49 89 2105 8228
  34947. -------------------------------------------------------------------------
  34948.  
  34949. Approved: parallel@hubcap.clemson.edu
  34950. Follow-up: comp.parallel
  34951. Path: bounce-back
  34952. Newsgroups: comp.parallel
  34953. From: rms@well.sf.ca.us (richard marlon stein)
  34954. Subject: Re: The future of parallel computing
  34955. Message-ID: <CGsurK.H7u@well.sf.ca.us>
  34956. Sender: news@well.sf.ca.us
  34957. Nntp-Posting-Host: well.sf.ca.us
  34958. Organization: The Whole Earth 'Lectronic Link, Sausalito, CA
  34959. References: <1993Nov19.210140.22782@hubcap.clemson.edu>
  34960. Date: Sat, 20 Nov 1993 16:50:07 GMT
  34961.  
  34962. In article <1993Nov19.210140.22782@hubcap.clemson.edu>,
  34963. Rajakumar <arajakum@mtu.edu> wrote:
  34964. >    I have been following the thread with rapt attention :-) and would like
  34965. >to contibute my two cents worth...
  34966. >
  34967. >military research. Now that the superstructure is being dismantled, the market
  34968. >for MPP especially is shrinking. Doesn't this mean that the future of parallel
  34969. >computing lies in distrubuted processing rather than in MPP?
  34970. >Anthony Rajakumar        arajakum@mtu.edu
  34971. >Grad Student
  34972. >Michigan Tech
  34973. >Houghton MI49931.
  34974. >
  34975. A wholesomely perceptive observation.  With the military budget declining,
  34976. HPC vendors must slug it out in the market place with PCs and other
  34977. systems.  Clearly, businesses want machines that are cost-effective and
  34978. enchance productivity, which is the motivation behind most uses of computers
  34979. in the first place.  The HPC vendors should try to leverage their scalable 
  34980. technology down to the desktop.  Anyone for a personal parallel computer with
  34981. 8 or 16 cpus?  My guess is that KSR All-Cache (tm) should do pretty well
  34982. here.
  34983.  
  34984. But the biggest problem with the HPC vendors having been driven by military
  34985. computing requirements in the past is the reach for teraflop, not system
  34986. balance.  Hence, you've got machines that can compute a ton but really
  34987. suck at I/O, which is two thirds of any machine's purpose.  IMHO, I believe
  34988. that HPC manufacturers should foot the bill for I/O enchancement, afterall
  34989. they've had plenty of time and funding from the feds to build the machines
  34990. correctly in the first place.
  34991.  
  34992. -- 
  34993. Richard Marlon Stein, Internet: rms@well.sf.ca.us
  34994. To those who know what is not known;  The Chronicles of Microwave Jim!
  34995.  
  34996. Approved: parallel@hubcap.clemson.edu
  34997. Follow-up: comp.parallel
  34998. Path: bounce-back
  34999. Newsgroups: comp.parallel
  35000. From: dbader@eng.umd.edu (David Bader)
  35001. Subject: Re: The future of parallel computing
  35002. Date: 20 Nov 1993 22:53:41 GMT
  35003. Organization: Professional Student, University of Maryland, College Park
  35004. References: <1993Nov19.210140.22782@hubcap.clemson.edu>
  35005. Nntp-Posting-Host: mountaindew.eng.umd.edu
  35006.  
  35007. In article <1993Nov19.210140.22782@hubcap.clemson.edu> arajakum@mtu.edu (Rajakumar) writes:
  35008. >Now, that got me thinking. The need for parallel computing was fuelled by
  35009. >military research. Now that the superstructure is being dismantled, the market
  35010. >for MPP especially is shrinking. Doesn't this mean that the future of parallel
  35011. >computing lies in distrubuted processing rather than in MPP?
  35012.  
  35013. Hi,
  35014.   I would say that there is a broad range of problems which fuel the
  35015. MPP market which are not defense applications.  NSF is reponsible for
  35016. the major funding of academic purchases of MPP machines.  NSF has also
  35017. released its list of "Grand Challenge" problems which will need MPP
  35018. technology. Some of these applications are global modeling, genetic
  35019. matching, management of extremely large databases, real-time image
  35020. processing, etc. etc. 
  35021.  
  35022.   Because NSF is funding university research projects and the purchase
  35023. of certain MPP machines (such as the MasPar and CM-5), I think that we
  35024. might not be heading in the absolute best direction for this field.
  35025. (And that is why I wrote the initial article called "The Future of
  35026. Parallel Computing.") To followup on this thread, I claim that the
  35027. feedback from scientists and researchers to the MPP industry is not
  35028. being heard, mainly because the market is being artificially supported
  35029. by NSF.
  35030.  
  35031.    That is, we need to unify our modeling of parallel algorithms,
  35032. including our view of the machine, and the functionality of the
  35033. compiler, instead of getting faster hardware thrown at us. 
  35034.  
  35035.    So, to answer your questions, "yes" - I believe that even with the
  35036. cutback of military projects, there will be a need for experts in the
  35037. field of parallel computing using MPP (as well as distributed
  35038. processing). 
  35039.  
  35040.   Thanks,
  35041.  david
  35042.  
  35043. David A. Bader 
  35044. Electrical Engineering Department
  35045. University of Maryland
  35046. College Park, MD 20742
  35047.  
  35048. Approved: parallel@hubcap.clemson.edu
  35049. Follow-up: comp.parallel
  35050. Path: bounce-back
  35051. Newsgroups: comp.parallel
  35052. From: manu@CS.UCLA.EDU (Maneesh Dhagat)
  35053. Subject: Supercomputer Sale to China
  35054. Nntp-Posting-Host: oahu.cs.ucla.edu
  35055. Organization: UCLA, Computer Science Department
  35056. Date: Sun, 21 Nov 93 03:46:41 GMT
  35057. Apparently-To: comp-parallel@uunet.uu.net
  35058.  
  35059.  
  35060. Hi,
  35061.  
  35062. recently, on the news, there's been a mention of 
  35063. the US selling a $8 mill. supercomputer to China.
  35064. Does anyone know which machine this is?
  35065.  
  35066. Please post, or send email to manu@cs.ucla.edu
  35067.  
  35068.                Thanks.
  35069.  
  35070. -- 
  35071. ---------------------------------------------------
  35072. Maneesh Dhagat (manu@cs.ucla.edu)
  35073. University of California, Los Angeles, CA 90024
  35074. ---------------------------------------------------
  35075.  
  35076. Approved: parallel@hubcap.clemson.edu
  35077. Follow-up: comp.parallel
  35078. Path: bounce-back
  35079. Newsgroups: comp.parallel
  35080. From: Federico Silveira <fs16@cornell.edu>
  35081. Subject: ***MUSTEK PrintScan 105***
  35082. Organization: Cornell University
  35083. Sender: fs16@cornell.edu (Verified)
  35084. Nntp-Posting-Host: operators3.cit.cornell.edu
  35085. X-Useragent: Nuntius v1.1.1d24
  35086. X-Xxdate: Sat, 20 Nov 93 04:22:11 GMT
  35087.  
  35088. I have a MUSEK PrintScan 105 handheld scanner for sale.  I purchased in
  35089. August but I haven't used it much.  This lack of use is why I am selling
  35090. it.  I is in mint condition and comes with everything it came with and a
  35091. Scan Align Pad which I purchased to accompany it.  I has spent most of
  35092. it's time in the box and not in use.  I comes with Perceive OCR, Rainbow
  35093. Paintshop, and MUSTEK's own scan utilities for Windows.
  35094. I am asking $135.00 or Best offer.  I have more information if wanted.
  35095.  
  35096. Federico Silveira
  35097. fs16@cornell.edu
  35098.  
  35099. Approved: parallel@hubcap.clemson.edu
  35100. Follow-up: comp.parallel
  35101. Path: bounce-back
  35102. Newsgroups: comp.parallel
  35103. From: tskrishn@rs6000.cmp.ilstu.edu (T.S.V. Krishnan)
  35104. Subject: PVM_LIKE_Software_for_PCs
  35105. To: comp-parallel@vixen.cso.uiuc.edu
  35106. Date: Sun, 21 Nov 1993 16:03:55 -0600 (CST)
  35107. X-Mailer: ELM [version 2.4 PL23]
  35108. Content-Type: text
  35109. Content-Length: 930       
  35110.  
  35111.  
  35112.  
  35113.     I am working on my Master's thesis " Distributed Load Balancing using
  35114. Artificial Intelligence". I need some type of simulation or a program which
  35115. would be like PVM  or similar to that to link various workstations in a Local
  35116. Area Network.  I plan to use one of the workstations (PC) as a master and link
  35117. 3 or more workstations (PCs) in such a way that the master can have all the
  35118. control over the slave workstations.
  35119.     The idea is run any task allocation program using this program, such that
  35120. the master can call different workstations and allocate task to them, the
  35121. slaves in turn would return back the result of the process to the master.
  35122. If anyone has some information on how to do this, or if there exists any
  35123. simulator or software which would allow me to do this, please let me know.
  35124.     Any help in this regard is highly appriciated.
  35125.  
  35126.     Please send your suggestion, to tskrishn@rs6000.cmp.ilstu.edu.
  35127.  
  35128. Thanks
  35129.  
  35130. Krish
  35131.  
  35132. Approved: parallel@hubcap.clemson.edu
  35133. Follow-up: comp.parallel
  35134. Path: bounce-back
  35135. Newsgroups: comp.parallel
  35136. From: Hugo.Embrechts@cs.kuleuven.ac.be (Hugo Embrechts)
  35137. Subject: share a hotel room at 5th IEEE SPDP, Dallas TX, 1-4 dec
  35138. Sender: news@cs.kuleuven.ac.be
  35139. Nntp-Posting-Host: bach.cs.kuleuven.ac.be
  35140. Organization: Applied Math Division, Computer Science Dept., Katholieke Universiteit Leuven, Belgium
  35141. Date: Mon, 22 Nov 1993 09:35:37 GMT
  35142. Apparently-To: comp-parallel@Belgium.EU.net
  35143.  
  35144. I'm looking for a person to share a hotel room at the 5th IEEE conference
  35145. on Parallel and Distributed Processing, held at Dallas, TX, 1-4 dec.
  35146. Who is interested can reply me at hugo@cs.kuleuven.ac.be.
  35147.  
  35148. Thanks,
  35149. Hugo Embrechts,
  35150. Dept. of Computer Science, Leuven, Belgium
  35151.  
  35152. Approved: parallel@hubcap.clemson.edu
  35153. Follow-up: comp.parallel
  35154. Path: bounce-back
  35155. Newsgroups: comp.sys.transputer,comp.arch,comp.parallel
  35156. From: djc@cam-orl.co.uk (David J Clarke)
  35157. Subject: Re: INMOS Information available on T9000
  35158. Message-ID: <1993Nov23.154301.10318@infodev.cam.ac.uk>
  35159. Sender: news@infodev.cam.ac.uk (USENET news)
  35160. Nntp-Posting-Host: pepper.cam-orl.co.uk
  35161. Organization: Olivetti Research Ltd
  35162. References: <1993Nov11.213059.26255@hubcap.clemson.edu> <1993Nov16.151841.3483@hubcap.clemson.edu> <1993Nov17.134249.25077@hubcap.clemson.edu> <1993Nov19.133529.9033@hubcap.clemson.edu> <1993Nov22.135659.3969@hubcap.clemson.edu>
  35163. Date: Tue, 23 Nov 1993 15:43:01 GMT
  35164.  
  35165. Here is another Engineer who swears by (and sometines at) Transputers for
  35166. Embedded Control.  The realtime reponse is unchallenged simply because the whole
  35167. machine is designed with that in mind.  Forget software timing loops.  Forget
  35168. polled i/o. 
  35169.  
  35170. This is for real.  One line of Occam gets you in or out without hanging the
  35171. processor waiting for the world to catch up.  Speak out, Harware types.  Don't be
  35172. put down by people who think that because there is a harder way, it must be
  35173. better!
  35174.  
  35175.  
  35176.  
  35177. Dave Clarke
  35178. Olivetti Research Limited
  35179. Cambridge, England
  35180.  
  35181.  
  35182.  
  35183. Disclaimer: The views expressed are my own, not necessarily those of my employer
  35184. or all of my colleages.  -DC
  35185.  
  35186. Approved: parallel@hubcap.clemson.edu
  35187. Follow-up: comp.parallel
  35188. Path: bounce-back
  35189. Newsgroups: comp.parallel
  35190. From: coker@cherrypit.princeton.edu (David A. Coker)
  35191. Subject: Re: Supercomputer Sale to China
  35192. Originator: news@nimaster
  35193. Sender: news@princeton.edu (USENET News System)
  35194. Nntp-Posting-Host: cherrypit.princeton.edu
  35195. Organization: Princeton University
  35196. References: <1993Nov22.135728.4241@hubcap.clemson.edu>
  35197. Date: Mon, 22 Nov 1993 14:11:48 GMT
  35198. Apparently-To: comp-parallel%rutgers.edu@phoenix.Princeton.EDU
  35199.  
  35200.  
  35201. I believe the computer being sold to China is a Cray.
  35202.  
  35203. David
  35204.  
  35205. -- 
  35206.  
  35207.  ___________________________________________________________
  35208. |o|                                                       |o| 
  35209. | | David A. Coker                                        | |
  35210.  
  35211. Approved: parallel@hubcap.clemson.edu
  35212. Follow-up: comp.parallel
  35213. Path: bounce-back
  35214. Newsgroups: comp.parallel
  35215. From: announce@PARK.BU.EDU
  35216. Subject: Faculty position in Cognitive and Neural Systems at Boston University
  35217.  
  35218.  
  35219.                       NEW SENIOR FACULTY
  35220.                 IN COGNITIVE AND NEURAL SYSTEMS
  35221.                      AT BOSTON UNIVERSITY
  35222.  
  35223. Boston University seeks an associate or full professor starting in Fall 
  35224. 1994 for its graduate Department of Cognitive and Neural Systems. 
  35225. This Department offers an integrated curriculum of psychological,
  35226. neurobiological, and computational concepts, models, and methods
  35227. in the fields of neural networks, computational neuroscience, and 
  35228. connectionist cognitive science in which Boston University is a leader. 
  35229. Candidates should have an international research reputation, preferably 
  35230. including extensive analytic or computational research experience in 
  35231. modeling a broad range of nonlinear neural networks, especially in one 
  35232. or more of the areas: vision and image processing, visual cognition, 
  35233. spatial orientation, adaptive pattern recognition, and cognitive 
  35234. information processing. Send a complete curriculum vitae and three
  35235. letters of recommendation to Search Committee, Department of Cognitive 
  35236. and Neural Systems, Room 240, 111 Cummington Street, Boston University, 
  35237. Boston, MA 02215.  Boston University is an Equal Opportunity/Affirmative 
  35238. Action employer.  
  35239.  
  35240.  
  35241. Approved: parallel@hubcap.clemson.edu
  35242. Follow-up: comp.parallel
  35243. Path: bounce-back
  35244. Newsgroups: comp.parallel
  35245. From: lukowicz@ira.uka.de (Paul Lukowicz )
  35246. Subject: Re: KSR locks and barriers
  35247. Date: 22 Nov 1993 14:36:53 GMT
  35248. Organization: University of Karlsruhe, FRG
  35249. References: <1993Nov19.133446.8779@hubcap.clemson.edu>
  35250. Nntp-Posting-Host: i41s3.ira.uka.de
  35251. Sender: newsadm@ira.uka.de
  35252.  
  35253. > We were a bit amazed by the results:
  35254. >
  35255. >(a) In thee case of less than 32 threads, barrier synchronization was
  35256. >    always faster than lock synchronization (about 15-20%).
  35257. >(b) When we had more threads than processors, the performance of
  35258. >    barrier sync. decreased dramatically, while the speedup of the
  35259. >    lock version in relation to the sequential version still
  35260. >    increased.
  35261. >
  35262.   
  35263. >Is this (b) a known effect, and if so, do you have an explanation for it?
  35264. -- 
  35265.  
  35266. We have observed the same effect while implementing the KSR-1 backend
  35267. of our Modula-2* compiler. I think that this is due to the fact that barrier
  35268. synchronisation uses buisy polling with high priority. Once one of the threads
  35269. on a processor enters a barrier it  uses up a lot of computing time for the
  35270. polling, preventing the other threads from doing anything usefull.
  35271.  
  35272. Paul
  35273.  
  35274. +--------------------------------------------------------+
  35275. | Paul Lukowicz             (email: lukowicz@ira.uka.de) |
  35276. | Institut fuer Programmstrukturen und Datenorganisation |
  35277. | Fakultaet fuer Informatik, Universitaet Karlsruhe     |
  35278. | Postfach 6980, W-7500 Karlsruhe 1, Germany         |
  35279. | (Voice: ++49/(0)721/6084386, FAX: ++49/(0)721/694092)     |
  35280. +--------------------------------------------------------+
  35281.  
  35282. Approved: parallel@hubcap.clemson.edu
  35283. Follow-up: comp.parallel
  35284. Path: bounce-back
  35285. Newsgroups: comp.parallel
  35286. Date: Mon, 22 Nov 93 09:58:31 -0500
  35287. From: announce@PARK.BU.EDU
  35288. Subject: Graduate study in Cognitive and Neural Systems at Boston University
  35289.  
  35290.          ***********************************************
  35291.          *                                             *
  35292.          *                 DEPARTMENT OF               *
  35293.          *      COGNITIVE AND NEURAL SYSTEMS (CNS)     *
  35294.          *              AT BOSTON UNIVERSITY           *
  35295.          *                                             *
  35296.          ***********************************************
  35297.  
  35298.                     Stephen Grossberg, Chairman
  35299.          Gail A. Carpenter, Director of Graduate Studies
  35300.  
  35301.  
  35302. The Boston University Department of Cognitive and Neural Systems offers 
  35303. comprehensive advanced training in the neural and computational principles, 
  35304. mechanisms, and architectures that underly human and animal behavior, 
  35305. and the application of neural network architectures to the solution of 
  35306. technological problems.
  35307.  
  35308. Applications for Fall, 1994 admission and financial aid are now being 
  35309. accepted for both the MA and PhD degree programs.
  35310.  
  35311. To obtain a brochure describing the CNS Program and a set of application
  35312. materials, write, telephone, or fax:
  35313.  
  35314.    Department of Cognitive & Neural Systems
  35315.    Boston University
  35316.    111 Cummington Street, Room 240
  35317.    Boston, MA 02215
  35318.    617/353-9481 (phone)
  35319.    617/353-7755 (fax)
  35320.  
  35321. or send via email your full name and mailing address to: 
  35322.  
  35323.    cns@cns.bu.edu
  35324.  
  35325. Applications for admission and financial aid should be received by the 
  35326. Graduate School Admissions Office no later than January 15.  Late 
  35327. applications will be considered until May 1; after that date applications 
  35328. will be considered only as special cases.
  35329.  
  35330. Applicants are required to submit undergraduate (and, if applicable, 
  35331. graduate) transcripts, three letters of recommendation, and Graduate
  35332. Record Examination (GRE) scores. The Advanced Test should be in the
  35333. candidate's area of departmental specialization. GRE scores may be
  35334. waived for MA candidates and, in exceptional cases, for PhD candidates,
  35335. but absence of these scores may decrease an applicant's chances for 
  35336. admission and financial aid.
  35337.  
  35338. Non-degree students may also enroll in CNS courses on a part-time basis.
  35339.  
  35340. Description of the CNS Department:
  35341.  
  35342. The Department of Cognitive and Neural Systems (CNS) provides advanced
  35343. training and research experience for graduate students interested in the 
  35344. neural and computational principles, mechanisms, and architectures that 
  35345. underlie human and animal behavior, and the application of neural network 
  35346. architectures to the solution of technological problems. Students are 
  35347. trained in a broad range of areas concerning cognitive and neural systems, 
  35348. including vision and image processing; speech and language understanding; 
  35349. adaptive pattern recognition; cognitive information processing; self-
  35350. organization; associative learning and long-term memory; computational
  35351. neuroscience; nerve cell biophysics; cooperative and competitive network 
  35352. dynamics and short-term memory; reinforcement, motivation, and attention; 
  35353. adaptive sensory-motor control and robotics; active vision; and biological 
  35354. rhythms; as well as the mathematical and computational methods needed to 
  35355. support advanced modeling research and applications. The CNS Department 
  35356. awards MA, PhD, and BA/MA degrees.
  35357.  
  35358. The CNS Department embodies a number of unique features. It has developed 
  35359. a curriculum that consists of twelve interdisciplinary graduate courses 
  35360. each of which integrates the psychological, neurobiological, mathematical, 
  35361. and computational information needed to theoretically investigate 
  35362. fundamental issues concerning mind and brain processes and the applications 
  35363. of neural networks to technology. Nine additional advanced courses, 
  35364. including research seminars, are also offered. Each course is typically 
  35365. taught once a week in the evening to make the program available to 
  35366. qualified students, including working professionals, throughout the Boston 
  35367. area. Students develop a coherent area of expertise by designing a program 
  35368. that includes courses in areas such as Biology, Computer Science, Engineering, 
  35369. Mathematics, and Psychology, in addition to courses in the CNS curriculum.
  35370.  
  35371. The CNS Department prepares students for thesis research with scientists 
  35372. in one of several Boston University research centers or groups, and with 
  35373. Boston-area scientists collaborating with these centers. The unit most 
  35374. closely linked to the department is the Center for Adaptive Systems (CAS). 
  35375. Students interested in neural network hardware work with researchers in 
  35376. CNS, the College of Engineering, and at MIT Lincoln Laboratory. Other 
  35377. research resources include distinguished research groups in neurophysiology, 
  35378. neuroanatomy, and neuropharmacology at the Medical School and the Charles 
  35379. River campus; in sensory robotics, biomedical engineering, computer and 
  35380. systems engineering, and neuromuscular research within the Engineering 
  35381. School; in dynamical systems within the Mathematics Department; in 
  35382. theoretical computer science within the Computer Science Department; and 
  35383. in biophysics and computational physics within the Physics Department. 
  35384.  
  35385. In addition to its basic research and training program, the Department 
  35386. conducts a seminar series, as well as conferences and symposia, which bring 
  35387. together distinguished scientists from both experimental and theoretical 
  35388. disciplines.
  35389.  
  35390. 1993-94 CAS MEMBERS and CNS FACULTY:
  35391.  
  35392. Jacob Beck                
  35393. Daniel H. Bullock
  35394. Gail A. Carpenter
  35395. Chan-Sup Chung
  35396. Michael A. Cohen 
  35397. H. Steven Colburn
  35398. Paolo Gaudiano  
  35399. Stephen Grossberg 
  35400. Frank H. Guenther         
  35401. Thomas G. Kincaid
  35402. Nancy Kopell
  35403. Ennio Mingolla
  35404. Heiko Neumann
  35405. Alan Peters
  35406. Adam Reeves
  35407. Eric L. Schwartz
  35408. Allen Waxman
  35409. Jeremy Wolfe
  35410.  
  35411.  
  35412.  
  35413.  
  35414. Approved: parallel@hubcap.clemson.edu
  35415. Follow-up: comp.parallel
  35416. Path: bounce-back
  35417. From: patel@cis.ohio-state.edu (kant c patel)
  35418. Newsgroups: comp.parallel,comp.sys.super
  35419. Subject: Router Implementations
  35420. Date: 22 Nov 1993 11:25:05 -0500
  35421. Organization: The Ohio State University Dept. of Computer and Info. Science
  35422.  
  35423.  
  35424. Hi,
  35425.  
  35426. I am studying wormhole router implementations, and am looking for some 
  35427. information on the hardware implementation of the router in the 
  35428. Intel Paragon, i.e., things like the types of decisions that are made at 
  35429. each router as the messages proceed through the network, and how these are 
  35430. actually implemented in hardware, header processing and flit transmission
  35431. times, some hardware details of implementation of the switch, etc.
  35432.  
  35433. I don't know if this kind of information would actually be available for
  35434. unlimited release, but I would really appreciate any pointers to whatever
  35435. information has been released by the company.
  35436.  
  35437. Thanks,
  35438. Kant (patel@cis.ohio-state.edu)
  35439. ______________________________________________________________________________
  35440.  
  35441.  
  35442.  
  35443.  
  35444. Approved: parallel@hubcap.clemson.edu
  35445. Follow-up: comp.parallel
  35446. Path: bounce-back
  35447. Newsgroups: comp.parallel
  35448. From: gabi@gup.uni-linz.ac.at (Gabriele Kotsis)
  35449. Subject: cf participation
  35450. Date: 22 Nov 1993 17:48:38 GMT
  35451. Organization: ACE, Uni Wien
  35452. Reply-To: gabi@gup.uni-linz.ac.at
  35453. Nntp-Posting-Host: heraklit.ani.univie.ac.at
  35454. X-Charset: ASCII
  35455. X-Char-Esc: 29
  35456.  
  35457.  
  35458.  
  35459.              CALL FOR PARTICIPATION
  35460.  
  35461.             Minisymposium on
  35462.  
  35463.          Performance Prediction of Parallel Programs
  35464.  
  35465.     OCG Sitzungssaal, Wollzeile 1-3, 1010 Vienna, Austria
  35466.  
  35467.             December 9th, 1993
  35468.  
  35469.  
  35470.  
  35471.  8.45- 9.00 Welcome
  35472.  
  35473.  9.00-10.00 Gianfranco Balbo, Universita di Torino
  35474.  
  35475.     Performance Evaluation and Concurrent Programming
  35476.  
  35477. 10.00-11.00 Alan Wagner, University of British Columbia
  35478.  
  35479.     Performance Issues in the Design of 
  35480.     Task-Oriented Templates
  35481.  
  35482. 11.00-11.30 coffee break
  35483.  
  35484. 11.30-12.30 Arjan J.C. van Gemund, Delft University of Technology
  35485.  
  35486.     PAMELA: A Performance Modeling Methodology
  35487.  
  35488. 12.30-13.00  R. Kolmhofer, Universit"at Linz 
  35489.  
  35490.     Measurement of the nCUBE Communication Behavior
  35491.  
  35492. 13.00-14.30 lunch
  35493.  
  35494. 14.30-15.30 Rosemary Candlin, University of Edinburgh
  35495.  
  35496.     Estimating Performance from the Macroscopic Properties
  35497.     of Parallel Programs
  35498.  
  35499. 15.30-16.30 Ulrich Herzog, Universit"at Erlangen-N"urnberg
  35500.  
  35501.     Constructive Modelling with Stochastic Process Algebras
  35502.  
  35503. 16.30-17.00 coffee break
  35504.  
  35505. 17.00-18.00 Umakishore Ramachandran,  Gorgia Institute of Technology
  35506.  
  35507.     In Search of a Crystal-ball: Application meets Architecture
  35508.  
  35509. 18.00-18.30 H. Gietl, nCUBE
  35510.  
  35511.     Generic Algorithms
  35512.  
  35513. 18.30-19.00 G"unter Haring, Universit"at Wien; Jens Volkert, Universit"at Linz
  35514.  
  35515.     Performance Prediction Within CAPSE
  35516.  
  35517.  
  35518. Organizers:
  35519.  
  35520.     Prof. G. Haring (haring@ani.univie.ac.at)
  35521.     Institut f"ur Angewandte Informatik und Informationssysteme
  35522.     Abteilung Advanced Computer Engineering
  35523.     Universit"at Wien
  35524.  
  35525.     Lenaugasse 2/8, 1080 Wien, "Osterreich (Vienna, Austria)
  35526.     Tel. +43 1 408 63 66 10
  35527.  
  35528.         and
  35529.     
  35530.     Prof. J. Volkert (jv@gup.uni-linz.ac.at
  35531.     Institut f"ur Graphische und Parallele Datenverarbeitung
  35532.     Universit"at Linz
  35533.  
  35534.     Altenbergerstra"se 69, 4040 Linz, "Osterreich
  35535.     Tel. +43 732 2468 888
  35536.  
  35537.  
  35538. How to register:
  35539.  
  35540.     Please, fill in and return the enclosed registration form to
  35541.  
  35542.         Gabriele Kotsis
  35543.         gabi@ani.univie.ac.at
  35544.     
  35545.     Registration fee is AS 300,- (payment will be made on site)
  35546.     and includes refreshments during the
  35547.     coffee breaks and a copy of the abstracts of the talks.
  35548.     
  35549. *******************************************************************
  35550.  
  35551. Last Name: _____________________________
  35552.  
  35553. First Name: ________________________
  35554.  
  35555. Organization: __________________________________________
  35556.  
  35557. Address: _____________________________________________
  35558.      _____________________________________________
  35559.  
  35560. City, State,Zip/Country:__________________________________
  35561.  
  35562. Phone: ___________________,  Fax: ____________________
  35563.  
  35564. E-mail:_______________________________
  35565.  
  35566. Registration Fee: AS 300,-
  35567.  
  35568. *******************************************************************
  35569.  
  35570.  
  35571.  
  35572. Approved: parallel@hubcap.clemson.edu
  35573. Follow-up: comp.parallel
  35574. Path: bounce-back
  35575. From: desj@ccr-p.ida.org (David desJardins)
  35576. Newsgroups: comp.parallel,comp.lang.fortran
  35577. Subject: Re: REALIGN & REDISTRIBUTE!
  35578. Date: 22 Nov 1993 14:38:37 -0500
  35579. Organization: IDA Center for Communications Research, Princeton
  35580. References: <1993Nov17.134320.25278@hubcap.clemson.edu>
  35581.  
  35582. Chih-Zong Lin <dcp79807@csie.nctu.edu.tw> writes:
  35583. > In the definition of High Performance Fortran,
  35584. > REALIGN and REDISTRIBUTE are provided to change data allocation dynamically.
  35585. >
  35586. > Is there any real applications that is suitable to use these directives?
  35587.  
  35588. Sure.  An easy example is a matrix multiply routine.  This might be
  35589. highly optimized but only if the matrices are in a particular relative
  35590. layout.  Since matrix multiplication is probably order N^3 (unless n is
  35591. very large) and realignment is only N^2, it makes sense to realign the
  35592. matrices for the execution of the subroutine even if this provides only
  35593. a relatively small increase in the speed of execution.
  35594.  
  35595. In general, any routine which does a large amount of work relative to
  35596. the size of its arguments, is probably going to benefit from
  35597. redistributing them when necessary.
  35598.  
  35599.                                         David desJardins
  35600.  
  35601. Approved: parallel@hubcap.clemson.edu
  35602. Follow-up: comp.parallel
  35603. Path: bounce-back
  35604. Newsgroups: comp.parallel
  35605. From: DKGCampb@cen.ex.ac.uk
  35606. Subject: Re: The future of parallel computing
  35607. Organization: University of Exeter, UK.
  35608. References: <1993Nov19.210140.22782@hubcap.clemson.edu>
  35609. Date: Mon, 22 Nov 1993 17:35:04 GMT
  35610. Apparently-To: hypercube@hubcap.clemson.edu
  35611. Sender: D.K.G.Campbell@exeter.ac.uk
  35612.  
  35613. In article <1993Nov19.210140.22782@hubcap.clemson.edu> arajakum@mtu.edu (Rajakumar) writes:
  35614.  
  35615. >    A few weeks back, I saw a magazine ( I forget which ) where a graph of
  35616. >the supercomputer industry was plotted. The graph was flat for the past few years.
  35617. >Now, that got me thinking. The need for parallel computing was fuelled by
  35618. >military research. Now that the superstructure is being dismantled, the market
  35619. >for MPP especially is shrinking. Doesn't this mean that the future of parallel
  35620. >computing lies in distrubuted processing rather than in MPP?
  35621.  
  35622. Well, quoting from "Computing" on 28 October 1993, p8:
  35623.  
  35624. "Analysts predict large-scale growth in the massively parallel market
  35625. between now and 2000.  In particular, banks and other large, IT-dependent
  35626. organisations are looking to massively parallel systems to administer
  35627. the huge databases they rely on to store customer details, stock lists
  35628. and other critical information."
  35629.  
  35630. So, some people do think there to be a future in MPP.
  35631.  
  35632.  
  35633. -- 
  35634. Duncan Campbell                     Acknowledgement:  I'd like to thank me,
  35635. Department of Computer Science                        without whom none of this
  35636. University of Exeter,                                 would have been possible.
  35637. Exeter  EX4 4PT              Tel:  +44 392 264063  Telex:  42894 EXUNIV G
  35638.  
  35639.  
  35640. Approved: parallel@hubcap.clemson.edu
  35641. Follow-up: comp.parallel
  35642. Path: bounce-back
  35643. Newsgroups: comp.parallel
  35644. From: Dik.Winter@cwi.nl (Dik T. Winter)
  35645. Subject: Re: Supercomputer Sale to China
  35646. Sender: news@cwi.nl (The Daily Dross)
  35647. Nntp-Posting-Host: boring.cwi.nl
  35648. Organization: CWI, Amsterdam
  35649. References: <1993Nov22.135728.4241@hubcap.clemson.edu>
  35650. Date: Mon, 22 Nov 1993 22:16:17 GMT
  35651. Apparently-To: comp-parallel@NL.net
  35652.  
  35653. In article <1993Nov22.135728.4241@hubcap.clemson.edu> manu@CS.UCLA.EDU (Maneesh Dhagat) writes:
  35654.  > recently, on the news, there's been a mention of 
  35655.  > the US selling a $8 mill. supercomputer to China.
  35656.  > Does anyone know which machine this is?
  35657.  > 
  35658. According to my paper it is not the US that sells but Cray Research Inc.
  35659. -- 
  35660. dik t. winter, cwi, kruislaan 413, 1098 sj  amsterdam, nederland
  35661. home: bovenover 215, 1025 jn  amsterdam, nederland; e-mail: dik@cwi.nl
  35662.  
  35663. Approved: parallel@hubcap.clemson.edu
  35664. Follow-up: comp.parallel
  35665. Path: bounce-back
  35666. Newsgroups: comp.parallel
  35667. From: raman@umiacs.umd.edu (Dr. Rajeev Raman)
  35668. Subject: Re: The future of parallel computing
  35669. Date: 22 Nov 1993 17:35:18 -0500
  35670. Organization: U of Maryland, Dept. of Computer Science, Coll. Pk., MD 20742
  35671. References: <1993Nov19.210140.22782@hubcap.clemson.edu> <1993Nov22.135716.4149@hubcap.clemson.edu>
  35672.  
  35673. In article <1993Nov22.135716.4149@hubcap.clemson.edu> dbader@eng.umd.edu (David Bader) writes:
  35674. >In article <1993Nov19.210140.22782@hubcap.clemson.edu> arajakum@mtu.edu (Rajakumar) writes:
  35675. >>Now, that got me thinking. The need for parallel computing was fuelled by
  35676. >>military research. Now that the superstructure is being dismantled, the market
  35677. >>for MPP especially is shrinking. Doesn't this mean that the future of parallel
  35678. >>computing lies in distrubuted processing rather than in MPP?
  35679. >
  35680. >Hi,
  35681. >  I would say that there is a broad range of problems which fuel the
  35682. >MPP market which are not defense applications.  
  35683.  
  35684. If I may add a (somewhat naive) observation to David's commentary ---
  35685. while it's often stated that uniprocessor power has been increasing by 
  35686. 50-100% a year for the last few years,  the equally remarkable fact to
  35687. me is how the need for such fast "general-purpose" computing has grown
  35688. as well.  The SPARC 2's which were such hot stuff two years ago are now
  35689. pretty passe.  I think if cheap processing power is available for general
  35690. purpose computing it will be used.  How?  Engineers will do ever more
  35691. accurate computations,  vision and robotics people will process larger
  35692. images at finer resolution,  financial analysts will make ever more
  35693. elaborate market models and so on.  One doesn't have to look too
  35694. far outside the traditional computing community to see the need (i.e.
  35695. we don't necessarily need Grand Challenges.)
  35696.  
  35697. Where will this extra speed come from? The uniprocessor speed increase 
  35698. cannot keep going much longer. 
  35699.  
  35700. (a) physical limitations will soon kick in;
  35701. (b) I don't see another innovation like RISC around the corner (even RISC
  35702.    really added only a factor of say two or four to computing speeds, most of
  35703.    the improvement since then has come from improvements in the technology
  35704.    of chip manufacturing).
  35705. (c) profit margins on large powerful chips will keep declining -- already
  35706.     the Pentium is nowhere near as profitable as the 486.
  35707.  
  35708. I expect that uniprocessors will cease to command huge price premiums in
  35709. 4-5 years, and that manufacturers will make money by selling them in
  35710. huge quantities at low cost. (R & D to make faster chips will soon be
  35711. at the point of diminishing returns.)  Hopefully this will put MPP
  35712. back into contention and the hardware manufacturers will be more
  35713. interested in manufacturing MPP-friendly chips (with hardware support
  35714. for context switching etc).
  35715.  
  35716. rr
  35717. Rajeev Raman
  35718. raman@umiacs.umd.edu
  35719. UMIACS, A.V. Williams Bldg, University of Maryland, College Park, MD 20742
  35720.  
  35721. Approved: parallel@hubcap.clemson.edu
  35722. Follow-up: comp.parallel
  35723. Path: bounce-back
  35724. Newsgroups: comp.parallel
  35725. From: khb@chiba.Eng.Sun.COM (Keith Bierman-khb@chiba.eng.sun.com::SunPro)
  35726. Subject: Re: Supercomputer Sale to China
  35727. Date: 22 Nov 93 17:08:32
  35728. Organization: SunPro
  35729. Message-ID: <KHB.93Nov22170832@chiba.Eng.Sun.COM>
  35730. References: <1993Nov22.135728.4241@hubcap.clemson.edu>
  35731. NNTP-Posting-Host: chiba
  35732. In-reply-to: manu@CS.UCLA.EDU's message of Sun, 21 Nov 93 03:46:41 GMT
  35733.  
  35734.  
  35735. In article <1993Nov22.135728.4241@hubcap.clemson.edu> manu@CS.UCLA.EDU (Maneesh Dhagat) writes:
  35736.  
  35737.    recently, on the news, there's been a mention of 
  35738.    the US selling a $8 mill. supercomputer to China.
  35739.    Does anyone know which machine this is?
  35740.  
  35741. The local newspaper claimed a machine from CRI. However, it was
  35742. unclear which of the several models it could have been.
  35743. --
  35744. ----------------------------------------------------------------
  35745. Keith H. Bierman    keith.bierman@Sun.COM| khb@chiba.Eng.Sun.COM
  35746. SunPro 2550 Garcia MTV 12-40             | (415 336 2648) fax 964 0946
  35747. Mountain View, CA 94043  <speaking for myself, not Sun*> Copyright 1993
  35748.  
  35749.  
  35750. Approved: parallel@hubcap.clemson.edu
  35751. Follow-up: comp.parallel
  35752. Path: bounce-back
  35753. Newsgroups: comp.parallel
  35754. From: davidhan@cs.unsw.oz.au (David Han)
  35755. Date: Tue, 23 Nov 93 14:36:25 +1100
  35756. Subject: ICCI'94 INFORMATION
  35757.  
  35758.  
  35759. Dear Sir,
  35760.  
  35761.  
  35762.  
  35763. Can you send me information of ICCI'94 ?
  35764.  
  35765.  
  35766. Thank you.
  35767. -- 
  35768.  _--_|\  David Han (davidhan@cs.unsw.oz.au)         
  35769. /      \ +61-2-663-4576 (fax)                       
  35770. \_.--._* MAIL: AI Lab, Com. Sci., Uni. NSW,
  35771.       v        PO BOX 1, Kensington, N.S.W. 2033  SYDNEY, AUSTRALIA                                         
  35772.  
  35773.  
  35774.  
  35775.  
  35776. Approved: parallel@hubcap.clemson.edu
  35777. Follow-up: comp.parallel
  35778. Path: bounce-back
  35779. Newsgroups: comp.parallel
  35780. From: djpatel@chaph.usc.edu (Dhiren Jeram Patel)
  35781. Subject: Does CM-5 do any prefetching?
  35782. Date: 22 Nov 1993 23:36:30 -0800
  35783. Organization: University of Southern California, Los Angeles, CA
  35784. Sender: djpatel@chaph.usc.edu
  35785. Keywords: CM-5 Thinking Machines
  35786.  
  35787. Subject line says it all.  I'd appreciate any info on any prefetching
  35788. mechanisms in the CM-5.  Thanks a bunch...
  35789.  
  35790. Dhiren Patel   [^_^]
  35791.  
  35792.  
  35793.  
  35794.  
  35795. Approved: parallel@hubcap.clemson.edu
  35796. Follow-up: comp.parallel
  35797. Path: bounce-back
  35798. Newsgroups: comp.parallel
  35799. From: nsrcjl@leonis.nus.sg (Jerry Lim Jen Ngee)
  35800. Subject: Call for Papers - Journal of NSRC
  35801. Date: 23 Nov 1993 08:11:02 GMT
  35802. Organization: National University of Singapore
  35803. Nntp-Posting-Host: leonis.nus.sg
  35804. X-Newsreader: TIN [version 1.2 PL0]
  35805.  
  35806.  
  35807. The second issue of High Performance Computing, the Journal of NSRC, will
  35808. be published in July 1994.  Researchers and users in the field of high
  35809. performance computing are invited to send in their papers for
  35810. consideration.  Submission for the second issue should not be later than
  35811. end February 1994. 
  35812.  
  35813. Scope of Journal
  35814.  
  35815. The journal will focus on the applications aspects of high performance
  35816. computing, ie, the use of supercomputers, massively parallel computers,
  35817. and clusters of heterogeneous computers to solve scientific, engineering,
  35818. and business problems. 
  35819.  
  35820. For further information, please contact  :
  35821.  
  35822.         The Editor
  35823.         Attn:  Mrs Evelyn Lau
  35824.         National Supercomputing Research Centre
  35825.         National University of Singapore
  35826.         81 Science Park Drive
  35827.         #04-03  The Chadwick
  35828.         Singapore Science Park
  35829.         Singapore 0511
  35830.  
  35831.         Tel :    (65)  77 89 080 
  35832.         Fax :    (65)  77 80 522
  35833.         Email :  songjj@nsrc.nus.sg 
  35834.         
  35835.  
  35836. Approved: parallel@hubcap.clemson.edu
  35837. Follow-up: comp.parallel
  35838. Path: bounce-back
  35839. Newsgroups: comp.parallel
  35840. From: mehlhaus@ira.uka.de (Ulrich Mehlhaus)
  35841. Subject: supercomputer applications
  35842. Date: 23 Nov 1993 11:53:31 GMT
  35843. Organization: University of Karlsruhe, FRG
  35844. Nntp-Posting-Host: i60s33.ira.uka.de
  35845. Sender: newsadm@ira.uka.de
  35846.  
  35847. Hy,
  35848.  
  35849. I'm looking for typical applications requiring the usage of multi-processor
  35850. computers. I've just scanned the timeline of developments in parallel computing
  35851. (by Greg Wilson) and found some machines offering thousends of processors. I can
  35852. imagine some applications (like simulation in physics or of dynamic flow
  35853. analysis) but are there some typical ones, which hardly require such an amount of
  35854. cpu's? I'm especially interested in publications describing the usage of these
  35855. type of computers to fulfill a very complex task.
  35856.  
  35857. Thanks in advance
  35858.  
  35859. Uli
  35860.  
  35861. ------------------------------------------------------------------------------
  35862. Ulrich Mehlhaus          Institute for Real-Time Computer Systems and Robotics
  35863. University of Karlsruhe   Kaiserstrasse 12   P.O.Box 6980    D-76128 Karlsruhe
  35864. email: mehlhaus@ira.uka.de    tel: xx/49/721/6084243    fax : xx/49/721/606740 
  35865.  
  35866.  
  35867. Approved: parallel@hubcap.clemson.edu
  35868. Follow-up: comp.parallel
  35869. Path: bounce-back
  35870. Newsgroups: comp.parallel
  35871. From: Damal Arvind <dka@dcs.ed.ac.uk>
  35872. Subject: Final CFP: ACM/IEEE/SCS 8th Workshop on Par. and Dist. Simulation
  35873. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  35874. Organization: Department of Computer Science, University of Edinburgh
  35875. Date: Tue, 23 Nov 1993 12:57:21 GMT
  35876. Apparently-To: comp-parallel@uknet.ac.uk
  35877.  
  35878.               =============================================      
  35879.                            Final Call For Papers
  35880.  
  35881.         ACM/IEEE/SCS 8th Workshop on Parallel and Distributed Simulation 
  35882.  
  35883.                University of Edinburgh, Scotland, U.K.
  35884.                           
  35885.                            July 6-8 1994,
  35886.               =============================================     
  35887.                              Sponsors:
  35888. ACM Special Interest Group on Simulation (SIGSIM),
  35889. IEEE Computer Society Technical Committee on Simulation (IEEE-TCSIM), and
  35890. Society for Computer Simulation (SCS)
  35891.  
  35892.                              Topics:
  35893. PADS provides a forum for presenting recent results in the simulation of 
  35894. large and complex systems by exploiting concurrency. The scope of the 
  35895. conference includes, but is not limited to:
  35896.  
  35897. * Algorithms, and methods for concurrent simulation
  35898.  (e.g. optimistic, conservative, discrete, continuous, event-driven, oblivious)
  35899. * Programming paradigms for concurrent simulation
  35900.  (e.g. object-oriented, logic, functional)
  35901. * Models of concurrent simulation
  35902.  (e.g. stochastic, process algebraic, temporal logic)
  35903. * Performance evaluation (both theoretical and experimental) of
  35904.   concurrent simulation systems
  35905. * Special purpose concurrent simulation (e.g. multiprocessor
  35906.   architectures, distributed systems, telecommunication networks,
  35907.   VLSI circuits, cache simulations)
  35908. * Relationship of concurrent simulation and underlying architecture
  35909.  (e.g. SIMD and MIMD machines, geographically distributed computers,
  35910.   tightly-coupled multiprocessors)
  35911.  
  35912.                   Schedule:
  35913. Deadline for Paper submission :  December 1, 1993
  35914. Notification of acceptance    :  March 1, 1994
  35915. Camera ready copy due by      :  April 15, 1994.
  35916.  
  35917.  
  35918. Invited Speaker : LEONARD KLEINROCK (Los Angeles, USA)
  35919.  
  35920. General Chair     : Rajive Bagrodia (Los Angeles, USA)
  35921. Local Arrangements: Monika Lekuse (Edinburgh, U.K.)
  35922.  
  35923.                           Program Co-chairs
  35924.  
  35925.         D. K. Arvind                           Jason Yi-Bing Lin
  35926. Department of Computer Science,                     Bellcore,
  35927.    University of Edinburgh,                  MRE 2D-297 
  35928.        Mayfield Road,                          445 South Street
  35929.    Edinburgh EH9 3JZ, U.K.                 Morristown, NJ 07962, USA.
  35930.      dka@dcs.ed.ac.uk                      liny@thumper.bellcore.com
  35931.   Voice:  +44 31 650 5176                  Voice:  +1 (201) 829-5095
  35932.     Fax:  +44 31 667 7209                    Fax:  +1 (201) 829-5886
  35933.  
  35934.  
  35935.                           Program Committee
  35936.  
  35937. I. Akyildiz (Atlanta, USA)       A. Greenberg (Bell Laboratory, USA)
  35938. R. Ayani (Kista, Sweden)         P. Heidelberger (IBM, USA)
  35939. F. Baiardi (Pisa, Italy)         C. Lengauer (Passau, Germany)
  35940. M. Bailey* (Tucson, USA)         D. Nicol* (Williamsburg, USA)
  35941. S. Balsamo (Pisa, Italy)         T. Ott (Bellcore, USA)
  35942. H. Bauer (Munich, Germany)       B. Preiss (Waterloo, Canada)
  35943. R. Fujimoto* (Atlanta, USA)      S. Turner (Exeter, UK)
  35944.  
  35945. * Member of the Steering Committee\\
  35946.  
  35947. Send e-mail to D. K. Arvind (dka@dcs.ed.ac.uk) for inclusion in the PADS 
  35948. electronic mailing list.
  35949.  
  35950.                      Submissions:
  35951. Prospective authors should submit six copies of the paper written in
  35952. English and not exceeding 5000 words to either one of the Program Co-chairs.
  35953. Papers must be original and not submitted for publication elsewhere.
  35954. Each submission should include the following in a cover sheet: short
  35955. abstract, contact person for correspondence, postal and e-mail addresses.
  35956. To ensure blind reviewing, authors' names and affiliations
  35957. should appear only on the cover sheet.  Bibliographic references
  35958. should be modified so as not to compromise the authors' identity.
  35959. Papers submitted by electronic mail will not be considered.
  35960.  
  35961.  
  35962.  
  35963.  
  35964.  
  35965.  
  35966.  
  35967.  
  35968.  
  35969.  
  35970.  
  35971.  
  35972.  
  35973.  
  35974. Approved: parallel@hubcap.clemson.edu
  35975. Follow-up: comp.parallel
  35976. Path: bounce-back
  35977. From: gottlieb@allan.ultra.nyu.edu (Allan Gottlieb)
  35978. Newsgroups: comp.arch,comp.parallel
  35979. Subject: Re: Information on the Connection m/c
  35980. Date: 23 Nov 1993 13:49:15 GMT
  35981. Organization: New York University, Ultracomputer project
  35982. References: <1993Nov17.150636.415092@ucl.ac.uk>
  35983. Nntp-Posting-Host: allan.ultra.nyu.edu
  35984. In-Reply-To: ucapcdt@ucl.ac.uk's message of Fri, 19 Nov 1993 13:33:22 GMT
  35985.  
  35986. In article <1993Nov17.150636.415092@ucl.ac.uk> ucapcdt@ucl.ac.uk (Christopher David Tomlinson) writes:
  35987.  
  35988.    I am looking for references/information on the connection machine
  35989.    (both cm1 and cm2) in particular anything regarding the design of
  35990.    the processing elements. I would be grateful if anybody could
  35991.    supply me with any leads.
  35992.  
  35993.    Thanks in advance
  35994.  
  35995.    Chris Tomlinson  
  35996.    C.Tomlinson@ucl.ac.uk
  35997.  
  35998. OK.  Here is the cm-1/cm-2 section of the 2nd edition of almasi and
  35999. gottlieb, highly parallel computing, benjamin-cummings pub.
  36000.  
  36001. .*Copyedits done by allan in short hills NJ
  36002. :fig id=cmchip frame=none
  36003. .ce on
  36004. .si  CM1  width  3.50i depth  3.40i
  36005. .sp 0.3i
  36006. .si  ALU2  width  4.00i depth  2.30i
  36007. .ce off
  36008. :figcap.The CM1 Connection Machine.
  36009. .in 2 nobreak
  36010. The upper part of this figure
  36011. shows the CM1's external host
  36012. and microcontroller, and one of the 4096 nodes that are connected
  36013. into a 12-dimensional hypercube.  Each node has four memory chips,
  36014. a processor chip holding 16 processors, and a router
  36015. connected to the hypercube network.
  36016. The lower part of the figure shows
  36017. one of the simple bit-serial
  36018. processors as it
  36019. performs the ADD operation.
  36020. :efig.
  36021. .hy off
  36022. :h3.CM-1 Connection Machine (MIT/TMC)
  36023. .hy on
  36024. :spot id=cm1.
  36025. .pi/Connection Machine
  36026. .pi/CM1
  36027. .pi ref /data-parallel /SIMD (and SPMD)
  36028. .pi ref /control-parallel /MIMD
  36029. :p.
  36030. The CM-1 Connection Machine
  36031. :bibref refid=hill85.
  36032. was a collection of 65,536 1-bit processors designed primarily
  36033. for massively parallel solutions to artificial intelligence problems,
  36034. although its manufacturer, Thinking Machines Corp.,
  36035. also
  36036. demonstrated its use on other applications, such as
  36037. database search.
  36038. Like ILLIAC IV and GF11, it was an SIMD computer,
  36039. driven by a conventional computer that acts as host and runs the
  36040. main program that contains all the intelligence in the system.
  36041. But unlike those :q.number crunchers:eq., the CM-1 was a
  36042. :q.symbol cruncher:eq. designed to answer questions more like
  36043. :q.Is Clyde an elephant?:eq. than
  36044. :q.What proton mass does QCD predict?:eq..
  36045. It was designed for problems that can benefit from parallel
  36046. pattern-matching search algorithms rather than algorithms that are
  36047. heavy in floating-point computations.
  36048. Floating-point computations are handled much better
  36049. by the subsequent
  36050. CM-2 and CM-5 offerings,
  36051. which are discussed on page :spotref refid=cm2.
  36052. and page :spotref refid=cm5., respectively.
  36053. :p.
  36054. Unlike the ILLIAC IV or GF11, the CM-1 uses a large number
  36055. of small processors.  Indeed, the CM-1 and CM-2 are
  36056. the current champions in that department, with four times as
  36057. many processors as the runner-up MPP
  36058. (page :spotref refid=mpp.).
  36059. .*.sc
  36060. .*.re pre2col
  36061. .*.5by7
  36062. .*+++.cp
  36063. The processors in CM-1 are connected in a :f.256% mul %256:ef. grid;
  36064. in addition, clumps of 16 processors
  36065. are also interconnected by a packet-switched,
  36066. 12-dimensional hypercube network for routing messages,
  36067. and the 16 processors within a clump are linked in daisy chain fashion.
  36068. Each processor performs a single-bit add in 750 nanoseconds; addition of
  36069. 32-bit integers has a peak rate close to 2000 (32-bit) MOPS (millions of
  36070. operations per second).
  36071. .pi /MOPS
  36072. :p.
  36073. There are several ways to view the Connection Machine.
  36074. One is that it tries to solve the
  36075. von Neumann bottleneck (page :spotref refid=vnbottl.)
  36076. by replacing one big processor over there talking to one big memory over here
  36077. with instead many little processors distributed throughout the memory
  36078. (in fact, it was originally called the Connection
  36079. :hp1.Memory:ehp1. :bibref refid=hill81.).
  36080. A second view is that it is an experiment in pushing the degree of parallelism
  36081. to the limits allowed by technology.  A third view has to do with a
  36082. model of the brain as a highly parallel collection of relatively slow
  36083. processes, with information stored as :hp1.connections:ehp1. rather than
  36084. :q.bits on a shelf:eq.
  36085. (see :q.Computing with Connections:eq. on page :spotref refid=cputcon.).
  36086. Thus one would
  36087. :hp1.expect:ehp1. drastic differences from ILLIAC IV and GF11, but there
  36088. are some surprising similarities as well; we shall point these
  36089. out as we go along.
  36090. :h4.Processing Elements
  36091. :p.
  36092. The processing elements are so small that 16
  36093. of them fit on a single
  36094. 1-:f.'cm' sup 2:ef., 68-pin
  36095. CMOS chip, along with
  36096. a message router that is connected to the hypercube network
  36097. and a nanoinstruction decoder that controls the processors and the
  36098. router (see the top part of :figref refid=cmchip.).
  36099. This chip is surrounded by four 16-Kbit
  36100. static RAM chips whose read/write ports are 4 bits wide, so that each
  36101. processor can have its own private 4 Kbit memory.
  36102. The processors are almost deceptively simple&emdash.as shown
  36103. in the bottom part of
  36104. :figref refid=cmchip page=no.,
  36105. each has a three-input, two-output, bit-serial arithmetic-logic unit
  36106. (ALU),
  36107. a little decoding logic,
  36108. and 16 1-bit flag registers that are
  36109. used for intermediate results, for
  36110. personalizing the chip, and for communicating with other chips.
  36111. In CM-1 terminology
  36112. :bibref refid=hill85., a microcontroller positioned between the
  36113. host and the Connection Machine
  36114. executes a set of
  36115. :hp1.microinstructions:ehp1. that tell how to translate
  36116. :hp1.macroinstructions:ehp1. sent by the host into
  36117. :hp1.nanoinstructions:ehp1. to be executed by each processor on the chip.
  36118. Unlike microcode in the GF11, these nanoinstructions can be generated on the fly
  36119. because the processors are so much simpler.
  36120. :p.
  36121. To give the reader an idea of the simplicity of the ALU,
  36122. if it were implemented in logic gates instead of the
  36123. scheme used in CM-1, it would have about twice as many gates as the
  36124. 1-bit full adder shown in :figref refid=1add., plus some decode logic.
  36125. The basic operation performed by the processor is
  36126. to read 2 bits from locations A and B in memory and 1 bit from flag
  36127. register F, perform a specified ALU operation on them, and write one of
  36128. the output bits back to A and the other to the destination
  36129. flag register Fdest.
  36130. (The flag output also goes to the flags of neighboring processors via the
  36131. daisy and grid connections.)
  36132. The addresses of A, B, F, and Fdest are specified by the nanoinstruction.
  36133. Examples of ALU operations are
  36134. .sp
  36135. .kp on
  36136. .*---------------
  36137. .im (alufns draw)
  36138. .*---------------
  36139. .kp off
  36140. .sp
  36141. and variations of these.
  36142. The inputs can be inverted,
  36143. and SUBTRACT,
  36144. for example, is obtained by
  36145. changing :f.B:ef. to :f.B bar:ef. in ADD.
  36146. Each processor operation takes three clock cycles,
  36147. one for each memory access, for a total instruction cycle of 750 nanoseconds.
  36148. (When the daisy flag is the read flag, the design permits a signal to
  36149. pass through all 16 processors on a chip in one instruction cycle.)
  36150. :p.
  36151. In the implementation of the CM-1 prototype, the ALUs do not really
  36152. compute their outputs by performing logic operations; rather, they
  36153. look up the proper outputs in a 16-bit register that contains the
  36154. two output columns of the truth table corresponding to the
  36155. ALU operation being performed (since there are three ALU inputs,
  36156. the truth table has :f.2 sup 3:ef. = 8 rows).
  36157. Each ALU consists of a decoder and some special gates that give
  36158. it concurrent access to this latch.  In CM-1, the 16 truth table
  36159. bits are part of the nanoinstruction broadcast to the processors.
  36160. By reprogramming the microcontroller, the instruction set can be
  36161. easily changed, as in GF11,
  36162. and for similar reasons&emdash.the desire to gain
  36163. more experience before freezing the instruction set.
  36164. Theoretically, the 16 bits allow :f.2 sup 16:ef. :q.instructions:eq.,
  36165. although most of these would
  36166. be useless logical combinations of the ALU inputs.
  36167. After an instruction set is chosen,
  36168. the nanoinstructions can be shortened by generating the
  36169. truth table bits on-chip from a shorter opcode, perhaps by using a PLA
  36170. (programmed logic array).  For example, a 5-bit opcode can specify
  36171. 32 different ALU operations.
  36172. :p.In addition to the 16 truth table bits specifying ALU operation,
  36173. the microcontroller sends the following parameters to the processors during
  36174. each ALU cycle:
  36175. .sp .5
  36176. :ul compact.
  36177. :li.:hp1.A-:ehp1. and :hp1.B- address:ehp1.
  36178. (12 bits each) specifying the external memory address from which the ALU's
  36179. two memory-input bits are read.  The memory-output bit is also written
  36180. into A.
  36181. :li.:hp1.Read Flag:ehp1.
  36182. (4 bits) specifying which one of the 16 flag registers is to supply the
  36183. ALU's flag input bit.
  36184. :li.:hp1.Write Flag:ehp1. (4 bits)
  36185. specifying the flag register that is to receive the ALU's flag output.
  36186. :li.:hp1.Condition Flag:ehp1. (4 bits)
  36187. specifying which flag to consult for permission to proceed with
  36188. the operation :spot id=cflag.
  36189. (like :q.Mother, may I?:eq. in the children's game).
  36190. :li.:hp1.Condition Sense:ehp1. (1 bit)
  36191. specifying whether a 1 or a 0 shall mean :q.proceed:eq. in the Condition Flag.
  36192. :li.:hp1.NEWS Direction:ehp1. (2 bits) specifying whether data are to move
  36193. to the north, east, west, or south neighbor during this instruction.
  36194. :eul.
  36195. .sp .5
  36196. This nanoinstruction is relatively wide
  36197. .pi/instruction set/Connection Machine
  36198. and does contribute to a
  36199. longer processor cycle.  As :figref refid=cmchip page=no. shows,
  36200. there are many more chip I/Os than pins, even neglecting
  36201. the pins needed for control signals and power and ground connection,
  36202. and so substantial time-sharing of the
  36203. pins used for data must be done.
  36204. :p.Much of the processor's capability comes from clever use of the
  36205. 16 1-bit flag registers.  Some of these are general-purpose, with no
  36206. predefined hardware function, and are used for such things as carry bits
  36207. in
  36208. .*a series of
  36209. ADD operations.  The remainder have special
  36210. hardware-related roles.  Several are used for communication via the
  36211. grid, daisy chain, or router:
  36212. .sp .5
  36213. :ul compact.
  36214. :li.The read-only :hp1.NEWS Flag:ehp1.
  36215. receives the flag output of the ALU to the
  36216. north, east, west, or south, depending on the NEWS parameter sent by the
  36217. instruction.
  36218. :li.The read-write :hp1.Router-Data Flag:ehp1.
  36219. is used to
  36220. .*enable the ALU flag output to be sent
  36221. receive data from and send data
  36222. to the message router via a special on-chip bus.
  36223. :li.The :hp1.Router-Acknowledge Flag:ehp1.
  36224. is set by the router when it accepts
  36225. a message from a processor.
  36226. :li.The :hp1.Daisy Chain Flag:ehp1.
  36227. reads the flag output
  36228. of the preceding processor on the daisy chain connection,
  36229. and is used to resolve contention among the chip's processors during
  36230. message routing.
  36231. :li.The logical NOR of the :hp1.Global Flag:ehp1.
  36232. of all the processors on a chip
  36233. is available on one of the chip's pins for communication with the host.
  36234. :eul.
  36235. .sp .5
  36236. Together, these 16 bits hold the state of the processor, and since any of
  36237. them can serve as the condition flag, they can be used to give a processor
  36238. some independence beyond a strict SIMD model, in rather the same way as the
  36239. 8 local condition-code bits of the GF11 and ILLIAC-IV processors are used.
  36240. :p.
  36241. Parts of the memory are also set aside for special information, such as the
  36242. processor's absolute address.  The processors can be sent a pattern to match
  36243. against anything in their memories and told to set their flags in a
  36244. certain way if they succeed,
  36245. after which the selected processors can behave differently from the others
  36246. even though all receive the same macroinstruction.
  36247. For example, this technique is used to deliver a message from the router to
  36248. the desired processor on the chip.
  36249. Other special areas of memory are a status word that includes a bit
  36250. indicating when a message is ready to be sent to the router, and another
  36251. area set aside to receive messages from the router.
  36252. The router also uses part of the memory to buffer messages going
  36253. elsewhere.
  36254. .*+++
  36255. .*+++2-28-93:  placement of 2-page box that replaces fig id=router:
  36256. .*+++
  36257. .*
  36258. .*+++2-page box that formerly was 6by9 fig id=router (2-28-93):
  36259. .fl on page even order
  36260. .sa prertbx
  36261. .bx left right
  36262. .in 2
  36263. .ir 2
  36264. .boxfont
  36265. .ce 1
  36266. :h4.Processor Action While Routing Messages
  36267. :spot id=router.
  36268. .*----------------
  36269. .im (router4 draw)
  36270. .*----------------
  36271. The diagram above shows what happens in the CM-1 processing elements
  36272. while a router message is being sent or received:
  36273. :ol compact.
  36274. :li.
  36275. .*Several processor cycles are spent communicating with the host and
  36276. .*obtaining clearance for this particular processor to send a message;
  36277. The Global Flag is used to notify the host that this processor has a message
  36278. to send, and the Daisy Flag is used to settle any contention with other
  36279. processors on the chip.  If this chip wins,
  36280. one of its special flags is set and used as the
  36281. Condition Flag (page :spotref refid=cflag.) during the next 32 instructions;
  36282. processors in which this flag is not set will :hp1.not:ehp1. execute these
  36283. instructions.
  36284. :li.Thirty-two cycles are used to send the message contents to the router.
  36285. To do this, the processor executes a sequence
  36286. of SWAP instructions during which B is the address of the message in the
  36287. memory and Fdest is the Router-Data Flag register.
  36288. This execution transfers the message data 1 bit at a time
  36289. from location B in memory to the router.
  36290. (The router puts the data in another area of the memory
  36291. that it uses as a message buffer.)
  36292. All of this sequence is conditional on the processor's flag settings.
  36293. .sp
  36294. .ce 1
  36295. (continued on next page)
  36296. .boxfend
  36297. .bx off
  36298. .re prertbx
  36299. .fl off
  36300. .fl on page odd order
  36301. .sa prertbx
  36302. .bx left right
  36303. .in 2
  36304. .ir 2
  36305. .boxfont
  36306. .sp
  36307. :li.Next, the message address (in absolute coordinates)
  36308. is read out and
  36309. :q.fixed:eq., including making it
  36310. relative to the router in question.
  36311. This process is accomplished by XORing the router's own address
  36312. and the message's absolute address, using a series of MOVE instructions.
  36313. :li.The router sends back an acknowledge bit if it accepted and stored the
  36314. message.
  36315. This step completes the SEND cycle.  The RECEIVE cycle begins next.
  36316. :li.The processor sits idle for some cycles while the router
  36317. prepares to deliver a message.  It reads the address of the
  36318. message in its highest-priority buffer.
  36319. This message could be one that has been previously delayed by traffic
  36320. and thus takes precedence over a more recent arrival.  If the
  36321. address is different from the router's, the message is switched onto one
  36322. of the 12 outgoing router wires and sent out.
  36323. If the address matches the node's, the router prepares to deliver it
  36324. locally.
  36325. :li.The router broadcasts a bit to its local processors that there is
  36326. an incoming message.
  36327. :li.The local processors compare their own
  36328. local address with that of the message.
  36329. :li.Another 32 cycles of SWAP instructions are used to put the message's
  36330. contents into the receiving processor's local memory.
  36331. This step ends the RECEIVE cycle.  Since the SWAP instruction can read and
  36332. write the memory at the same time, the
  36333. RECEIVE cycle can be overlapped
  36334. with the next SEND cycle as shown, at the cost of a small gap
  36335. between steps 7 and 8.
  36336. The delay between message initiations matches the length of a
  36337. dimension cycle.
  36338. :eol.
  36339. .sp .45
  36340. If the message address does not match that of the local node,
  36341. the router may start  transferring
  36342. the message to another router (start filling the buffer of another router)
  36343. at step 8 above.
  36344. .sp
  36345. .bx off
  36346. .boxfend
  36347. .fl off
  36348. .re prertbx
  36349. .*+++         END OF THE 2-PAGE BOX   ++++++++++++
  36350. .*+++
  36351. .*page break needed to make LILCUBE, text align (27July88):
  36352. .*.cp
  36353. :h4.Routing Element and Network
  36354. :p.
  36355. :spot id=sm3cube.
  36356. :psc proc='aps5w45 3820A'
  36357. .si  LILCUBE  width  1.20i depth 0i
  36358. :epsc.
  36359. :psc proc=psa.
  36360. .sb -1.2i
  36361. .DD $LILCUBE LILCUBE EPSBIN
  36362. .PO $LILCUBE WIDTH 1.2I  SCALE
  36363. .sb
  36364. :epsc.
  36365. .in 1.5i for 1.1i nobreak
  36366. In addition to quick access to its immediate neighbors,
  36367. a processor also has slower access to any other processor via a 12-dimensional
  36368. hypercube network formed by the connections between the routers.
  36369. How much slower depends on which of two routing mechanisms is used,
  36370. :hp1.cut-through:ehp1. or :hp1.store-and-forward:ehp1..
  36371. As we discuss on page :spotref refid=worm.,
  36372. store-and-forward routing in a hypercube network means that the
  36373. entire message has to arrive at one node before any of the message is
  36374. forwarded to the next node.  The time to transmit a message is,
  36375. therefore, the :hp1.product:ehp1.
  36376. of the message length and the number of cube stages.
  36377. Cut-through (or :hp1.wormhole:ehp1.) routing means that a message element
  36378. (bit, byte, or word) is forwarded to the next node right away,
  36379. that is, without waiting for any trailing pieces of the message
  36380. (the network is :hp1.pipelined:ehp1.).
  36381. The message transmission time is therefore the :hp1.sum:ehp1.
  36382. of the message length and the number of cube stages; thus it is
  36383. much faster than store-and-forward.
  36384. :p.
  36385. The trade-off in the case of the Connection Machine is that
  36386. the cut-through routing requires bypassing, or
  36387. :q.short-circuiting:eq., the router elements and making the user's
  36388. program totally responsible for steering each message to its destination
  36389. and avoiding collisions with other messages.
  36390. By contrast,
  36391. although the router uses store-and-forward and is therefore slower,
  36392. it handles the routing automatically.  We will describe how below.
  36393. .pi/routing/store and forward
  36394. .pi/routing/wormhole
  36395. .pi/store and forward routing
  36396. .pi/wormhole routing
  36397. .pi ref /cut-through routing/wormhole routing
  36398. :p.
  36399. A router's function is to accept messages from its 16 local
  36400. processors for transmission to one of the 12 other routers to which it is
  36401. directly connected;
  36402. it also receives messages from those other routers and either delivers
  36403. them to its local processors or else forwards them to other routers.
  36404. A typical CM-1 message consists of 32 data bits, plus the address
  36405. information needed to reach the destination, plus a return address,
  36406. for a total of slightly more than 60 bits.
  36407. :p.The routing algorithm used is the one described on page
  36408. :spotref refid=cubrout..
  36409. It consists of 12 steps, or :hp1.dimension cycles:ehp1.;
  36410. during step :f.i:ef. the message is sent to the adjacent node
  36411. in dimension :f.i:ef. if the :f.i:ef.th bit of its router address is 1.
  36412. This router address is the address of the destination
  36413. node :hp1.relative to the originating node:ehp1. and is obtained from the
  36414. exclusive OR of the two absolute addresses (see page
  36415. :spotref refid=cubrout.).
  36416. :spot id=cm1rout.
  36417. This relative address
  36418. is used to guide the message to its destination; each time it is sent along
  36419. some dimension, the corresponding 1 in the address is set to 0.
  36420. When the address is all 0s, the message has arrived.
  36421. :fn.
  36422. Another way to look at this situation is that every processor thinks that
  36423. it is at the origin.
  36424. The reader is encouraged to experiment with the simple 3-cube shown
  36425. on page :spotref refid=sm3cube..
  36426. :efn.
  36427. :p.
  36428. The complete process of sending and receiving a message via the hypercube
  36429. network involves a SEND cycle,
  36430. during which a processor injects a message into its router;
  36431. one or more petit cycles to reach the target router;
  36432. and then a RECEIVE cycle,
  36433. in which the router ejects the message into a local processor.
  36434. The processor SEND and RECEIVE cycles are synchronized with the router
  36435. dimension cycle as shown on page :spotref refid=router..
  36436. :hp1.At the beginning and end
  36437. of a dimension cycle, a message (address + data) is completely in either
  36438. a router buffer or in a processor's private memory:ehp1.
  36439. During a dimension cycle, a message may move from one router to another
  36440. (along one of the 12 edges, or dimensions, of CM1's hypercube),
  36441. or a message may move from a processor's memory to a router's buffer or vice
  36442. versa.
  36443. :p.
  36444. Each message bit takes one processor instruction
  36445. cycle (750 nS) to transmit, and so a dimension
  36446. cycle is a little over 60 instruction cycles long.
  36447. The set of 12 dimension cycles is called a :hp1.petit cycle:ehp1.,
  36448. which is thus about 800 instruction cycles long.
  36449. This time is the minimum spent by a message going all the way across
  36450. the router network,
  36451. assuming it is not delayed by traffic.
  36452. :fn.
  36453. A grand cycle is the time for :hp1.all:ehp1. messages generated
  36454. by some operation to arrive through heavy traffic.
  36455. :efn.
  36456. A message moving only from one adjacent router to the next
  36457. and not running into conflicts with other messages
  36458. could take
  36459. as little as 3 dimension cycles or as many as 14, depending on the phase
  36460. of the petit cycle during which it leaves the processor.
  36461. Since the algorithm accesses the
  36462. dimensions in a cyclical fashion, a message that runs into a conflict with
  36463. another message during a dimension cycle must wait at least one full
  36464. petit cycle before it gets a second chance to move along that dimension.
  36465. The average network delay can easily be several petit cycles or several
  36466. thousand instruction
  36467. cycles,
  36468. amounting to several :hp1.milliseconds:ehp1. in CM1.
  36469. :fn.
  36470. By contrast, the nonblocking Benes
  36471. network keeps the GF11 network pipeline delay constant.
  36472. :efn.
  36473. Thus, this mechanism should :hp1.not:ehp1. be used
  36474. for casual one-on-one communication, but rather for
  36475. parallel set-up of and communication within / among
  36476. the :hp1.active data structures:ehp1. discussed on page
  36477. :spotref refid=actdata..
  36478. :p.
  36479. The diagram in the box on page
  36480. :spotref refid=router. shows
  36481. what a processor does to send or receive
  36482. a message via the router.  Note that all processors perform these
  36483. instructions, even though the inputs and outputs of some are inhibited
  36484. by their flag settings, and so no other processing can be done until all
  36485. messages are delivered.
  36486. One could say, therefore, that communication dominates computation in
  36487. the Connection Machine.  Its builders might reply, however, that
  36488. communication :hp1.is:ehp1. computation for the problems of interest.
  36489. :p.
  36490. The mechanics of the router itself
  36491. :fn.
  36492. By way of analogy, the router can be thought of as a
  36493. train station's waiting room, with passengers moving in accord
  36494. with a dictatorial set of rules.  (The whole Connection Machine
  36495. may owe more inspiration to the MIT Model Railroad Club than is generally
  36496. recognized.)
  36497. :efn.
  36498. are as follows.
  36499. All messages reaching a router go into buffers unless these are full.
  36500. The router is continually cycling messages into and out of its buffers.
  36501. During a dimension cycle, it can accept a message from
  36502. either a local processor or another router and put it in a buffer,
  36503. and it can take a message from a buffer
  36504. and deliver it to a local processor or another router.
  36505. On dimension cycle :f.i:ef.,
  36506. the router tries to send any stored message with a 1 in bit position
  36507. :f.i.:ef.
  36508. Messages leaving these buffers encounter a
  36509. cross-point-like switch that
  36510. sends one message onto output wire :f.i:ef.
  36511. and the rest (if there are any) back to the buffers.
  36512. The time of one of these round trips is equal to a dimension cycle.
  36513. A first in, first out (FIFO) discipline is imposed, so that the most
  36514. recently arrived message is put in the lowest-priority buffer, and the
  36515. oldest message goes out first.
  36516. :p.If the buffers are full and multiple messages arrive, one is put in the
  36517. lowest-priority buffer, and the old contents of this buffer plus the
  36518. other messages are sent out to other routers
  36519. even if this process moves them a step further from their destinations.
  36520. By way of consolation, these involuntarily rerouted messages get an increase
  36521. of priority.
  36522. This :hp1.desperation routing:ehp1.
  36523. .pi/desperation routing
  36524. .pi/routing/desperation
  36525. is expected to occur only rarely.
  36526. However, its effects are not yet fully known.
  36527. :h4.Programming Environment
  36528. :p.
  36529. CM-1 compilers have been written for C, Fortran, and Lisp.
  36530. Extensions are added to these languages to
  36531. allow parallel data structures.
  36532. Programs are described in terms of :hp1.virtual processors:ehp1.
  36533. to make them
  36534. independent of the number of hardware processors, which are multiplexed
  36535. to the extent necessary to support this abstraction.
  36536. Hillis's book :bibref refid=hill85. describes
  36537. one such extension called CmLisp.
  36538. With respect to parallelism,
  36539. its computational model is similar to that of APL.
  36540. All concurrent operations involve a generalized, vectorlike data structure
  36541. called a :hp1.xector:ehp1., each of whose elements is stored in a separate
  36542. processor.
  36543. .pi/xector
  36544. Xector operations are specified
  36545. .*This can be made to happen
  36546. by using
  36547. :q.alpha notation:eq. to denote the kind of :q.apply-to-all:eq. parallelism
  36548. inherent in APL operations.
  36549. .pi/alpha
  36550. For example, the addition of two vectors
  36551. 1 2 and 2 3 to produce a vector 3 5 is expressed in CmLisp as
  36552. .sp
  36553. .ce 1
  36554. (:f.alpha +%%:ef. '&lbr.a &rarrow.1 :f.%%:ef.b &rarrow.2&rbr.:f.%%:ef.'&lbr.a&rarrow.2 :f.%%:ef.b &rarrow.3&rbr.)
  36555. .sp
  36556. and in APL as
  36557. .sp
  36558. .ce 1
  36559. 1 2 + 2 3
  36560. .sp
  36561. (In the xector enclosed in &lbr. &rbr. brackets, the arrow &rarrow. connects
  36562. the index and value of each element of the xector.  This mapping performed by
  36563. a xector
  36564. can involve symbols as well as numbers.)
  36565. :q.Beta notation:eq. is used to reduce the elements of a xector into a single
  36566. value, much like the APL reduction operator.
  36567. .pi/beta
  36568. For example, the addition of
  36569. all elements of a vector 1 2 3 to produce the sum 6 is represented in CmLisp
  36570. as
  36571. .sp
  36572. .ce
  36573. (:f.beta:ef.+ '&lbr.A&rarrow.1 B&rarrow.2 C&rarrow.3&rbr.)
  36574. .sp
  36575. and in APL as
  36576. .sp
  36577. .ce 1
  36578. +/1 2 3
  36579. .sp
  36580. :spot id=cmlisp.
  36581. Hillis :bibref refid=hill85. describes the use of these constructs in more
  36582. detail.  To quote his summary, :q.A Connection Machine is the direct hardware
  36583. embodiment of the :f.alpha:ef. and :f.beta:ef. operators.
  36584. Processors &lbracket.perform&rbracket. :f.alpha,:ef.
  36585. routers &lbracket.permit&rbracket. :f.beta:ef..
  36586. The contents of the memory cells are xectors.:eq.
  36587. It is interesting to compare the SIMD parallelism of CmLisp
  36588. and these constructs
  36589. with the MIMD parallelism of Multilisp and its :q.future:eq. construct
  36590. (page :spotref refid=mulisp.).
  36591. .pi/LISP/CMLISP
  36592. .pi/LISP/parallel
  36593. :h4.CM-1 Applications
  36594. :p.
  36595. One of the primary motivations for the design of the CM-1
  36596. Connection Machine
  36597. :bibref refid=hill85.
  36598. was the retrieval of common-sense knowledge from a semantic network, a
  36599. data structure frequently used in artificial intelligence to model the
  36600. human brain's ability to manipulate relatively unstructured data and
  36601. quickly
  36602. extract (i.e., infer)
  36603. facts that were not explicitly put into the database.
  36604. A parallel method for doing this modeling using an earlier,
  36605. simpler system called NETL was
  36606. described on page :spotref refid=NETL..
  36607. This approach is one touched on by Fahlman :bibref refid=fahl80. when he
  36608. discusses message-passing systems with :q.three flavors of parallelism:eq.;
  36609. :spot id=3flav.
  36610. .pi/three flavors of parallelism
  36611. .pi/parallelism/three flavors of
  36612. in order of increasing complexity, the three are :hp1.marker passing:ehp1.
  36613. .pi/marker passing
  36614. (such as NETL's 1-bit markers),
  36615. .pi/value passing
  36616. :hp1.value passing:ehp1. (a kind of multiple-bit marker passing),
  36617. and true :hp1.message passing:ehp1.
  36618. .pi/message passing
  36619. (as supplied by the Connection Machine).
  36620. Markers and values are passed among nodes and perhaps
  36621. combined at a node to form a sum, minimum, or maximum,
  36622. but they are not kept separate, as true messages are.
  36623. The processors in the Connection Machine are considerably more
  36624. powerful than NETL's in that they
  36625. transmit and maintain individual messages of (more or less)
  36626. arbitrary length and
  36627. perform arbitrary logical
  36628. and arithmetic operations on them.
  36629. The router can :q.soft-wire:eq. two arbitrary processors together,
  36630. since it can deliver a message between any two processors and since the
  36631. received message includes the sending processor's return address.
  36632. Hillis
  36633. :bibref refid=hill85.
  36634. describes how :q.active data structures:eq. such as semantic networks are
  36635. :spot id=actdata.
  36636. built up out of trees of processors and how Lisp's
  36637. CONS operation is related to the building up of such networks.
  36638. :p.
  36639. However, the early demonstrations of the Connection Machine have not been
  36640. on semantic network problems, but on such applications
  36641. as document retrieval and fluid flow.
  36642. These demonstrations have indeed used a processor
  36643. per data item, but most have not used the router network,
  36644. relying instead on only the grid connections.
  36645. One performance example cited :bibref refid=stan86. is
  36646. the retrieval of a news story matching some key words
  36647. from among 50,000 news stories
  36648. and the subsequent retrieval of all related stories
  36649. in a time as low as a few milliseconds.
  36650. Considerable work has been done by the
  36651. Connection Machine people on
  36652. :q.thinking in parallel:eq. and
  36653. using parallel algorithms, but the computational
  36654. model used so far has not used the most unique feature of the Connection
  36655. Machine, namely the routers, and so many of the results are
  36656. applicable to other massively parallel
  36657. machines made up of large arrays of small
  36658. processors, such as the DAP and the MPP (see page :spotref refid=mpp.).
  36659. It is not yet clear what the Connection Machine's most
  36660. important application will be.
  36661. :h4.Comparisons
  36662. :p.
  36663. Other examples of massive parallelism via many small processors in
  36664. SIMD mode have been configured as meshes or trees.
  36665. The mesh-connected MPP and DAP are treated on page :spotref refid=mpp.ff.
  36666. Tree machines are discussed on page :spotref refid=treemch..
  36667. Trees are nice data structures,
  36668. but as hardware structures they pose a problem:
  36669. you want to be able to put
  36670. the root at any PE, which you can't do with tree machines; you can with
  36671. shuffle and cube networks.
  36672. :p.
  36673. Another example of a cube-connected, message-passing architecture
  36674. is provided by the Cosmic Cube (page :spotref refid=cosmic.),
  36675. but the processors there are much more substantial and fewer in number,
  36676. and the operation is MIMD.
  36677.  
  36678.  
  36679. .*2nd edition copyedit done by allan at NYU.
  36680. :H4. CM-2
  36681. :spot id=cm2.
  36682. :p.
  36683. When introducing the CM-2 successor, Thinking Machines shifted their
  36684. emphasis from symbolic to numeric processing; a trend that has
  36685. continued with their subsequent offerings, including the
  36686. CM-5 MIMD
  36687. machine mentioned on page :spotref refid=cm5..
  36688. The major architectural change from the CM-1, is the addition of a
  36689. Weitek-based floating-point coprocessor with every 32 of the
  36690. of 1-bit integer processors.  This ensemble of 2048
  36691. floating-point units
  36692. is able to achieve several GFLOPS (billions of floating-point
  36693. operations per second)
  36694. .pi /GFLOPS
  36695. on favorable problems well suited for SIMD operation.
  36696. Not surprisingly, such high floating-point performance has attracted
  36697. considerable attention in the numerical computing community, and the
  36698. Connection Machine is now considered more a number cruncher than a
  36699. symbolic processor.
  36700. .*added by Almasi 3-30-92:
  36701. The model 200, introduced in 1991, operates the 1-bit processors and
  36702. also the Weitek chips at 10 MHZ, thus obtaining 10 MFLOPS (64-bit)
  36703. from each Weitek chip and a peak of 20 GFLOPS from a full-scale CM-2.
  36704. :p.
  36705. Early versions of the software stored a floating-point variable in the
  36706. memory associated with a single bit-serial processor, and hence 32 data
  36707. transfers were needed to send a single- precision (32-bit) value to the
  36708. Weitek.
  36709. :fn.
  36710. During these 32 cycles, each of the 32 processors associated with a
  36711. Weitek can transfer a value.  There is a buffer present to hold these
  36712. 32 values as they are (simultaneously) arriving and then deliver them
  36713. sequentially to the Weitek.  Hence 32 cycles after they arrive in the
  36714. buffer, they have all been sent to the processor.
  36715. :efn.
  36716. Newer
  36717. :hp1.slice-wise:ehp1.
  36718. .pi /slice-wise
  36719. :spot id=slicew.
  36720. software spreads each single-precision value across the 32 processors
  36721. so that it can be transmitted all at once.
  36722. :p.
  36723. When using the slice-wise model, the CM-2 is often viewed as a
  36724. parallel computer containing 2048 32-bit processors.  That is, the
  36725. machine has become a collection of Weiteks with an integer support
  36726. unit (that happens to contain 32 1-bit processors) rather than as a
  36727. collection of 1-bit processors with Weiteks added to boost
  36728. floating-point performance.  It is interesting to note that a software
  36729. change was the last step needed for the architecture to change appearance.
  36730. One should also recognize that the slice-wise CM-2 has proven to be
  36731. quite an effective performer on numerical problems.  The 1989 Gordon
  36732. Bell award for highest performance was won by a team using a CM-2, as
  36733. was the 1990 Gordon Bell award for highest compiler-generated speedup
  36734. (an impressive 1900 out of a maximum possible 2048).
  36735. :p.
  36736. Other improvements include a vast increase in memory from 32 MB in the
  36737. CM-1 to 8 GB (8 billion bytes) in the CM-2, support for parallel I/O
  36738. to a Data Vault
  36739. disk system, and an integrated color frame buffer for visualization.
  36740. More details can be found in :bibref refid=tuck88.
  36741. and in :bibref refid=tmi90..
  36742. :spot id=cm1end.
  36743.  
  36744. Approved: parallel@hubcap.clemson.edu
  36745. Follow-up: comp.parallel
  36746. Path: bounce-back
  36747. Newsgroups: comp.parallel
  36748. From: Shyam.Mudambi@ecrc.de (Shyam Mudambi)
  36749. Subject: Parallel Debugger for Sun Multiprocessors running Solaris
  36750. Keywords: Parallel Debugging, Solaris
  36751. Sender: news@ecrc.de
  36752. Reply-To: Shyam.Mudambi@ecrc.de
  36753. Organization: European Computer-Industry Research Centre GmbH.
  36754. Date: Tue, 23 Nov 1993 13:54:06 GMT
  36755. Apparently-To: comp-parallel@uunet.uu.net
  36756.  
  36757. We have ordered a Sun SparcStation 10 with 4 processors for developing parallel
  36758. applications. I would like to know if there exist any parallel debuggers for
  36759. Solaris (from Sun) and if so whether they also have some functionality for debugging
  36760. threads.
  36761.  
  36762. Please send any answers directly to mudambi@ecrc.de. 
  36763. Thanks!
  36764.  
  36765.  
  36766.  
  36767.  
  36768.  
  36769. Approved: parallel@hubcap.clemson.edu
  36770. Follow-up: comp.parallel
  36771. Path: bounce-back
  36772. Newsgroups: comp.parallel
  36773. From: bal@cs.vu.nl (Henri Bal)
  36774. Subject: Position for parallel programming researcher in Amsterdam
  36775. Message-ID: <CGyBr5.FJw@cs.vu.nl>
  36776. Sender: news@cs.vu.nl
  36777. Organization: Fac. Wiskunde & Informatica, VU, Amsterdam
  36778. Date: Tue, 23 Nov 1993 15:45:05 GMT
  36779.  
  36780.  
  36781.  
  36782. The Dept. of Mathematics and Computer Science of the Vrije Universiteit
  36783. in Amsterdam, The Netherlands, has a research group working on parallel
  36784. programming of distributed systems. The group consists of eight people
  36785. (researchers, programmers and students) and is headed by Dr. Henri Bal.
  36786.  
  36787. The research extends the work on the Orca programming language,
  36788. which uses a form of object-based distributed shared memory
  36789. [see IEEE Trans. on Softw. Eng., March 1992 and IEEE Computer Aug. 1992].
  36790. It makes use of the Amoeba distributed operating system [see CACM December
  36791. 1990], being developed here under the leadership of Prof. Andrew Tanenbaum.
  36792. The Orca and Amoeba groups work closely together.
  36793.  
  36794. Some of the current research topics of the Orca group are:
  36795.   - Scalable and portable runtime systems for Orca
  36796.   - Advanced compile-time and run-time optimizations for shared objects
  36797.   - Parallel applications using shared objects
  36798.   - Object models
  36799.   - Higher-level (application-oriented) languages
  36800.   - Tools (e.g. for performance evaluation)
  36801.  
  36802. A position is available for a Postdoc researcher for 1-2 years (preferably
  36803. two years) to do work that fits in with the current research of the group.
  36804. Candidates are expected to have (or soon have) a PhD in Computer Science and
  36805. must have contributed significantly to the fields of parallel or distributed
  36806. computing, as shown by publications in important journals and conferences.
  36807. Experience with distributed shared memory, runtime systems, compilers, or
  36808. performance evaluation tools for parallel languages is an advantage, since our
  36809. work is experimental in nature.
  36810.  
  36811. The department has an experimental Amoeba system consisting of 80 SPARCs
  36812. and 48 MC68030's. The group uses this system for its research.
  36813. The group is partially funded by a substantial Pionier research grant from
  36814. the Netherlands organization for scientific research (N.W.O.).
  36815.  
  36816. For more information:
  36817.  
  36818.     Dr. Henri Bal
  36819.     Vrije Universiteit
  36820.     Dept. of Mathematics and Computer Science
  36821.     De Boelelaan 1081a
  36822.     1081 HV  Amsterdam
  36823.     The Netherlands
  36824.  
  36825.     Email: bal@cs.vu.nl
  36826.     Phone: +31 20 5485574 (secretary is: +31 20 5487273)
  36827.     Fax:   +31 20 6427705
  36828.  
  36829.  
  36830. Applicants should send the following items (preferably by email in PostScript,
  36831. troff -ms, or LaTex format):
  36832.  
  36833.    1. Curriculum vitae (name, address, degrees with school, date, and major,
  36834.       work experience, etc.)
  36835.  
  36836.    2. List of publications, patents, awards, and similar items.
  36837.  
  36838.    3. The name, FAX number, and email address of three professional references.
  36839.  
  36840.    4. A statement describing the kind of research you would like to do here,
  36841.       and how this relates to your background.
  36842.  
  36843. Approved: parallel@hubcap.clemson.edu
  36844. Follow-up: comp.parallel
  36845. Path: bounce-back
  36846. Newsgroups: comp.parallel
  36847. From: richter@phoenix.informatik.uni-stuttgart.de (Jan-Peter Richter)
  36848. Subject: MIMD code with loadimbalances wanted
  36849. Sender: richter@phoenix.informatik.uni-stuttgart.de (Jan-Peter Richter)
  36850. Reply-To: richter@informatik.uni-stuttgart.de
  36851. Organization: IPVR Stuttgart University
  36852. Date: Tue, 23 Nov 1993 17:12:16 GMT
  36853. Apparently-To: hypercube@hubcap.clemson.edu
  36854.  
  36855.  
  36856.  
  36857.         ********** MIMD CODE WITH LOADIMBALANCES WANTED *********
  36858.  
  36859.  
  36860. For our research in the field of dynamic loadbalancing we are looking
  36861. for programs that show dynamic load imbalances. The goal of our project
  36862. is to enhance performance of message passing MIMD programs by dynamic
  36863. reconfiguration of processes and dynamic assignment of task messages to
  36864. server processes. If you have a program that we could use as a sample
  36865. application, please let us know!
  36866.  
  36867. Your program should have the following properties:
  36868.  
  36869.    ABSTRACT PROGRAMMING MODEL:
  36870.       Your program must be written for MIMD architectures with explicit
  36871.       message passing. SIMD, vector or (virtual) shared memory code
  36872.       is of no use for us.
  36873.       It is not neccessary that any standard interface like pvm is used
  36874.       as long as the general message passing semantics is easy to understand
  36875.       and thus easily ported. Our machine is an intel PARAGON with the
  36876.       NX message passing library.
  36877.       Your code may be written for workstation clusters or supercomputers.
  36878.       SPMD and server/client parallelized algorithms are welcome!
  36879.  
  36880.    SCALABILITY
  36881.       Your program must be parallelized in a way that the number of processors
  36882.       can easily be adjusted (as a parameter) at the moment of program start.
  36883.       This adjustment should be possible on the range up to ~50 processors
  36884.       or beyond.
  36885.       (It doesn't matter if the speed up breaks down on large numbers of
  36886.       processors as long as the program works at all.)
  36887.  
  36888.    CODE AVAILABILITY
  36889.       Your code must be availabe to us in full source. If any copyright
  36890.       restrictions apply to the program we will not give the code away
  36891.       to any third party. Licence fees however cannot be payed.
  36892.  
  36893.    LANGUAGE
  36894.       Your code should be written in C (preferred) and/or FORTRAN with
  36895.       additional message passing primitives.
  36896.       A well documented program would be nice. We would ask for your
  36897.       help with not so well documented programs. Anyway we would be grateful
  36898.       for your cooperation on the subject of your program.
  36899.  
  36900.    SUBJECT
  36901.       Your program should deal with real world problems like fluid dynamics
  36902.       or raytracing (as a visualization technique). Calculating the mandelbrot
  36903.       set is *not* a real world problem.
  36904.  
  36905.    BEHAVIOUR
  36906.       Your program should show the behaviour of load imbalances. That is
  36907.       (in a nutshell) that some processors are idle/waiting for
  36908.       messages (new data to process) while others are busy and have not
  36909.       reached the point of synchronization (sending the data). We are
  36910.       especially interested in programs where load imbalances occur
  36911.       dynamically. I.e. that during run time in one phase of the execution one 
  36912.       process is lightly loaded and in a later phase heavily loaded.
  36913.       (This effect may occur in adaptive mesh or grid oriented algorithms.)
  36914.       The total run time of your program should last from minutes to hours
  36915.       (depending on the number of processors and input data).
  36916.  
  36917. If you have such a program you can help us with our research!
  36918.  
  36919.    Please contact
  36920.  
  36921.        Jan-Peter Richter (richter@informatik.uni-stuttgart.de)
  36922.  
  36923.  
  36924.  
  36925.    Thanks,
  36926.  
  36927.    Jan-Peter Richter
  36928.    Universitaet Stuttgart, IPVR 
  36929.    Breitwiesenstrasse 20-22
  36930.    70565 Stuttgart 
  36931.  
  36932.  
  36933. Approved: parallel@hubcap.clemson.edu
  36934. Follow-up: comp.parallel
  36935. Path: bounce-back
  36936. Newsgroups: comp.parallel
  36937. From: laird@Think.COM (Laird Popkin)
  36938. Subject: looking for a Travelling Salesman code for CM
  36939. Date: 23 Nov 1993 19:01:12 GMT
  36940. Organization: CM Network Services
  36941. Sender: laird@marble.com
  36942. Nntp-Posting-Host: cmns.think.com
  36943. Summary: flying too much...
  36944. Keywords: CM2, CM5, Travelling Salesman, flying
  36945.  
  36946. A friend of mine posted the following in a local newsgroup, and I
  36947. thought that perhaps someone here could give some pointers to
  36948. travelling salesman codes, perhaps for the CM2 or CM5 since that's
  36949. what we can get to most easily.  I'd guess that solving the problem of
  36950. a best path between all the airports in all the states in order to hit
  36951. every state is probably beyond smaller machines that we can get to.
  36952.  
  36953. Please reply either to me (laird@marble.com) or the pilot who posted
  36954. this (marc@marble.com), as I don't read this newsgroup too frequently.
  36955.  
  36956. Thanks!
  36957.  
  36958. ----------------------------------------------------------------------
  36959.  
  36960. Fellow pilots:
  36961.  
  36962. This Spring, Tiron and I are going to attempt to set a world record in our
  36963. Aerostar.  The existing record for our class aircraft to land in all 48
  36964. contiguous United States is 7 days, 4 hours, 32 minutes; this record was
  36965. set, not surprisingly, in an Aerostar.  FYI, the record for landing in the
  36966. capital of each of the 48 states is 13 days and change.
  36967.  
  36968. The reason we decided to attack this record is simple:  the Aerostar is
  36969. made for record-busting.  It's extremely fast, yet it doesn't have jet
  36970. engines, so we don't burn more fuel at low altitude than at high.  Also,
  36971. it's considerably cheaper to attempt this kind of record in a recip. than
  36972. in a jet-powered aircraft.
  36973.  
  36974. Here's where you come in.  While not jet-expensive to fly, the Aerostar
  36975. does cost us about $250/hour, and there are a lot of hours in 48 states.
  36976. Therefore, it would be extremely upsetting to attempt this flight and to
  36977. fail.  I figure that we (at Marble, along with our friends on the Internet)
  36978. have more computing power available to us than the previous record setters.
  36979. Tiron has already gotten a tentative offer of CM-5 time to help us flight
  36980. plan.  So, in short, I need to solve the travelling salesman problem, with
  36981. the wind and weather factor thrown in for good measure.  How's that for a
  36982. sports challenge?
  36983.  
  36984. While asking for a solution might be a bit much, it would probably suffice
  36985. to develop a piece of software that would attempt to enumerate various
  36986. flight plans, accounting for typical winds and weather, for our fuel
  36987. capacity and air speeds, and then computer the expected times of those
  36988. flight plans.  While we probably cannot guarantee the "best" solution,
  36989. we should definitely be able to come up with a number of "better" solutions.
  36990.  
  36991. Perhaps such a piece of software already exists...
  36992.  
  36993. I'm looking for good ideas, good advice, and good flight plans.  Anyone want
  36994. to help (if not, I'll have to attempt to solve this one weekend...)?
  36995.  
  36996. Marc
  36997.  
  36998.  
  36999.  
  37000. Approved: parallel@hubcap.clemson.edu
  37001. Follow-up: comp.parallel
  37002. Path: bounce-back
  37003. Newsgroups: comp.parallel
  37004. From: davec@ecst.csuchico.edu (Dave Childs)
  37005. Subject: concurrent langauges for teaching
  37006. Date: 23 Nov 1993 21:31:45 GMT
  37007. Organization: California State University, Chico
  37008. Nntp-Posting-Host: hairball.ecst.csuchico.edu
  37009.  
  37010. I am trying to track down a good concurrent language for teaching concurrent
  37011. concepts.  Something based on C, C++, or pascal would work nicely, but we
  37012. are open to other possibilities.
  37013.  
  37014. Thanks for your help,
  37015.  
  37016. David Childs,
  37017. California State University Chico
  37018.  
  37019. Approved: parallel@hubcap.clemson.edu
  37020. Follow-up: comp.parallel
  37021. Path: bounce-back
  37022. Newsgroups: comp.parallel
  37023. From: davec@ecst.csuchico.edu (Dave Childs)
  37024. Subject: concurrent langauges for teaching
  37025. Date: 23 Nov 1993 21:31:45 GMT
  37026. Organization: California State University, Chico
  37027. Nntp-Posting-Host: hairball.ecst.csuchico.edu
  37028.  
  37029. I am trying to track down a good concurrent language for teaching concurrent
  37030. concepts.  Something based on C, C++, or pascal would work nicely, but we
  37031. are open to other possibilities.
  37032.  
  37033. Thanks for your help,
  37034.  
  37035. David Childs,
  37036. California State University Chico
  37037.  
  37038. Approved: parallel@hubcap.clemson.edu
  37039. Follow-up: comp.parallel
  37040. Path: bounce-back
  37041. Newsgroups: comp.parallel
  37042. From: gbyrd@mcnc.org (Gregory T. Byrd)
  37043. Subject: CM-5 memory architecture
  37044. Keywords: CM-5
  37045. Sender: daemon@mcnc.org (David Daemon)
  37046. Nntp-Posting-Host: robin.mcnc.org
  37047. Reply-To: gbyrd@mcnc.org (Gregory T. Byrd)
  37048. Organization: North Carolina Supercomputing Center
  37049. Date: Tue, 23 Nov 1993 21:49:59 GMT
  37050. Apparently-To: comp-parallel
  37051.  
  37052. In the CM-5 Technical Summary (TMC, Oct. 1991), it says, "The
  37053. memory controller is replaced by four vector units."  This is
  37054. in comparing the node with the vector option to the "basic" node.
  37055. The diagram for the vector node shows the vector units in 
  37056. between the MBUS and the memory units, and the text indicates
  37057. that the vector units "perform all the functions of a memory
  37058. controller."
  37059.  
  37060. However, in the November '93 CACM article, the block diagram for
  37061. the node shows a connection from the memories to the MBUS, as
  37062. well as the connections to the vector units.
  37063.  
  37064. Which diagram is correct?
  37065.  
  37066. ...Greg Byrd             MCNC / Information Technologies Division
  37067.    gbyrd@mcnc.org        3021 Cornwallis Road / P.O. Box 12889
  37068.    (919)248-1439         Research Triangle Park, NC  27709-2889
  37069.  
  37070. Approved: parallel@hubcap.clemson.edu
  37071. Follow-up: comp.parallel
  37072. Path: bounce-back
  37073. Newsgroups: comp.parallel
  37074. From: gbyrd@mcnc.org (Gregory T. Byrd)
  37075. Subject: CM-5 memory architecture
  37076. Keywords: CM-5
  37077. Sender: daemon@mcnc.org (David Daemon)
  37078. Nntp-Posting-Host: robin.mcnc.org
  37079. Reply-To: gbyrd@mcnc.org (Gregory T. Byrd)
  37080. Organization: North Carolina Supercomputing Center
  37081. Date: Tue, 23 Nov 1993 21:49:59 GMT
  37082. Apparently-To: comp-parallel
  37083.  
  37084. In the CM-5 Technical Summary (TMC, Oct. 1991), it says, "The
  37085. memory controller is replaced by four vector units."  This is
  37086. in comparing the node with the vector option to the "basic" node.
  37087. The diagram for the vector node shows the vector units in 
  37088. between the MBUS and the memory units, and the text indicates
  37089. that the vector units "perform all the functions of a memory
  37090. controller."
  37091.  
  37092. However, in the November '93 CACM article, the block diagram for
  37093. the node shows a connection from the memories to the MBUS, as
  37094. well as the connections to the vector units.
  37095.  
  37096. Which diagram is correct?
  37097.  
  37098. ...Greg Byrd             MCNC / Information Technologies Division
  37099.    gbyrd@mcnc.org        3021 Cornwallis Road / P.O. Box 12889
  37100.    (919)248-1439         Research Triangle Park, NC  27709-2889
  37101.  
  37102. Approved: parallel@hubcap.clemson.edu
  37103. Follow-up: comp.parallel
  37104. Path: bounce-back
  37105. Newsgroups: comp.parallel
  37106. From: Cristina Boeres <cbx@dcs.ed.ac.uk>
  37107. Subject: contents of the ACM workshop on debugging
  37108. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  37109. Organization: Department of Computer Science, University of Edinburgh
  37110. Date: Wed, 24 Nov 1993 11:34:27 GMT
  37111. Apparently-To: comp-parallel@uknet.ac.uk
  37112.  
  37113.  
  37114. -- 
  37115.  
  37116.  
  37117.     I would be very pleased to know the contents of the Proceedings
  37118. ACM workshop on debugging - 1993 - California..
  37119.  
  37120.     thanks in advance
  37121.  
  37122.  
  37123. cristina
  37124.  
  37125. # Cristina Boeres ---  Depart. of Computer Science - University of Edinburgh  #
  37126. #                      JCMB - King's Buildings     - Mayfield Road            #
  37127. #     o__              Edinburgh  Scotland EH9 3JZ - Phone #: (031) 650 5141  #
  37128. Approved: parallel@hubcap.clemson.edu
  37129. Follow-up: comp.parallel
  37130. Path: bounce-back
  37131. Newsgroups: comp.parallel,comp.parallel.pvm,sci.math.num-analysis
  37132. From: clark@bruce.nist.gov
  37133. Subject: NIST SBIR request
  37134. Sender: news@dove.nist.gov
  37135. Organization: NIST
  37136. Date: Tue, 23 Nov 1993 23:19:07 GMT
  37137. Apparently-To: comp-parallel@uunet.uu.net
  37138.  
  37139. I posted this earlier this month, but as the deadline has been extended I
  37140. thought some of you might wish to look at it again.
  37141.  
  37142.  
  37143. >From the Department of Commerce Program Solicitation, Small Business
  37144. Innovative Research for FY 1994, p.37:
  37145.  
  37146. "8.7.5 SUBTOPIC: Schroedinger Equation Algorithms for MIMD Architectures
  37147.  
  37148. NIST programs in laser-atom interaction utilize models that require the
  37149. numerical solution of a many-particle, time-dependent Schroedinger
  37150. equation.  We are interested in algorithms for the solution of this
  37151. equation that can take advantage of computational parallelism, particularly
  37152. multiple-instruction, multiple-data (MIMD) architectures.
  37153.  
  37154. We require a set of computational modules that can solve the initial-
  37155. value problem for the Schroedinger equation on a multidimensional
  37156. spatial grid.  Such modules should be written in the Fortran or C 
  37157. languages, and use PVM for interprocessor communication so that
  37158. they can be executed on a heterogeneous network of computers.  They
  37159. should provide standard interfaces for visualization, e.g. calls to AVS,
  37160. PV-WAVE, or Display PostScript.  Preference will be given to proposals
  37161. that optimize fast Fourier transform techniques for MIMD architectures,
  37162. or which also provide for the solution of large eigenvalue problems."
  37163.  
  37164. Further information on the SBIR program may be obtained from
  37165.  
  37166.         Mr. Norman Taylor
  37167.         A343 Physics Building
  37168.         National Institute of Standards and Technology
  37169.         Gaithersburg, MD 20899
  37170.         (301)975-4517
  37171.  
  37172. The deadline for receipt of proposals is January 18, 1994.
  37173.  
  37174. Approved: parallel@hubcap.clemson.edu
  37175. Follow-up: comp.parallel
  37176. Path: bounce-back
  37177. Newsgroups: comp.parallel
  37178. From: isclyhb@leonis.nus.sg (Benjamin Lian)
  37179. Subject: Bulk Synchronous Model?
  37180. Date: 24 Nov 1993 04:33:32 GMT
  37181. Organization: National University of Singapore
  37182. Nntp-Posting-Host: leonis.nus.sg
  37183. X-Newsreader: TIN [version 1.2 PL0]
  37184.  
  37185. I am looking for papers on Valiant's Bulk Synchronous Model
  37186. for parallel computing. Would greatly appreciate pointers in
  37187. the right direction to start a literature search.
  37188.  
  37189. Thanking you,
  37190.  
  37191. --
  37192. Benjamin Lian
  37193. isclyhb@leonis.nus.sg
  37194.  
  37195.  
  37196. Approved: parallel@hubcap.clemson.edu
  37197. Follow-up: comp.parallel
  37198. Path: bounce-back
  37199. Newsgroups: comp.parallel
  37200. From: louk@teleride.on.ca (Lou Kates)
  37201. Subject: Kendall Square Research address
  37202. Organization: Teleride Sage Ltd.
  37203. Date:     Wed, 24 Nov 1993 00:01:41 -0500
  37204.  
  37205. Does anyone have contact info for Kendall Square Research?
  37206.  
  37207. Lou Kates, louk@teleride.on.ca
  37208.  
  37209.  
  37210. Approved: parallel@hubcap.clemson.edu
  37211. Follow-up: comp.parallel
  37212. Path: bounce-back
  37213. Newsgroups: comp.parallel
  37214. From: isclyhb@leonis.nus.sg (Benjamin Lian)
  37215. Subject: Concurrent access to data structures
  37216. Date: 24 Nov 1993 08:00:24 GMT
  37217. Organization: National University of Singapore
  37218. Nntp-Posting-Host: leonis.nus.sg
  37219. X-Newsreader: TIN [version 1.2 PL0]
  37220.  
  37221. I am trying to see how one might provide concurrent
  37222. access to dynamic linear and branching structures in a
  37223. concurrent programming language. 
  37224.  
  37225. I can think of a couple of instances where concurrent access
  37226. to parts of a tree might be handy, but really how *useful*
  37227. such a facility might be is not clear to me. Syntactic
  37228. specification does not seem to be a real problem, except
  37229. that there might be the supplementary question of how much
  37230. impact there might be from the language's synchronization
  37231. and communication model. The big question is probably that of
  37232. how to provide access control reasonably cheaply at
  37233. runtime. Excluding all possibility of concurrent, but
  37234. serialised, read/write access to the data structure may not
  37235. be reasonable. [That's why the KSR memory architecture is so
  37236. attractive to me, but I don't have one because we can't
  37237. afford one.]
  37238.  
  37239. I'm sorry if I sound somewhat obtuse, but I'm still in the
  37240. process of crystalising my thoughts, and may either miss the
  37241. `obvious' or be asking an FAQ.
  37242.  
  37243. Cheers,
  37244.  
  37245.  
  37246. --
  37247. Benjamin Lian
  37248. isclyhb@leonis.nus.sg
  37249.  
  37250. Approved: parallel@hubcap.clemson.edu
  37251. Follow-up: comp.parallel
  37252. Path: bounce-back
  37253. Newsgroups: comp.parallel
  37254. From: fredrikm@eik.ii.uib.no (Fredrik Manne)
  37255. Subject: Partitioning of loops
  37256. Date: 24 Nov 1993 09:27:13 GMT
  37257. Organization: Institute of Informatics, University of Bergen, Norway
  37258. Nntp-Posting-Host: eik.ii.uib.no
  37259. Sender: usenet@uib.no
  37260.  
  37261. I have been working with symmetric multi processing (SMP) lately and was
  37262. wondering about the algorithms that are used for partitioning and 
  37263. scheduling of loops. The ones I have seen seems rather simple. My question 
  37264. relates to what one does when the iterations take different amount of
  37265. time. Does anyone have any references to more sofiticated algorithms for
  37266. loop partitioning that can be used in such cases?
  37267.  
  37268. Fredrik
  37269.  
  37270. Approved: parallel@hubcap.clemson.edu
  37271. Follow-up: comp.parallel
  37272. Path: bounce-back
  37273. Newsgroups: comp.parallel
  37274. From: Damal Arvind <dka@dcs.ed.ac.uk>
  37275. Subject: Final CFP: ACM/IEEE/SCS 8th Workshop on Par. and Dist. Simulation
  37276.  
  37277.               =============================================      
  37278.                         Final Call For Papers
  37279.  
  37280.         ACM/IEEE/SCS 8th Workshop on Parallel and Distributed Simulation 
  37281.  
  37282.                University of Edinburgh, Scotland, U.K.
  37283.                           
  37284.                            July 6-8 1994,
  37285.               =============================================     
  37286.                              Sponsors:
  37287. ACM Special Interest Group on Simulation (SIGSIM),
  37288. IEEE Computer Society Technical Committee on Simulation (IEEE-TCSIM), and
  37289. Society for Computer Simulation (SCS)
  37290.  
  37291.                              Topics:
  37292. PADS provides a forum for presenting recent results in the simulation of 
  37293. large and complex systems by exploiting concurrency. The scope of the 
  37294. conference includes, but is not limited to:
  37295.  
  37296. * Algorithms, and methods for concurrent simulation
  37297.  (e.g. optimistic, conservative, discrete, continuous, event-driven, oblivious)
  37298. * Programming paradigms for concurrent simulation
  37299.  (e.g. object-oriented, logic, functional)
  37300. * Models of concurrent simulation
  37301.  (e.g. stochastic, process algebraic, temporal logic)
  37302. * Performance evaluation (both theoretical and experimental) of
  37303.   concurrent simulation systems
  37304. * Special purpose concurrent simulation (e.g. multiprocessor
  37305.   architectures, distributed systems, telecommunication networks,
  37306.   VLSI circuits, cache simulations)
  37307. * Relationship of concurrent simulation and underlying architecture
  37308.  (e.g. SIMD and MIMD machines, geographically distributed computers,
  37309.   tightly-coupled multiprocessors)
  37310.  
  37311.                   Schedule:
  37312. Deadline for Paper submission :  December 1, 1993
  37313. Notification of acceptance    :  March 1, 1994
  37314. Camera ready copy due by      :  April 15, 1994.
  37315.  
  37316.  
  37317. Invited Speaker : LEONARD KLEINROCK (Los Angeles, USA)
  37318.  
  37319. General Chair     : Rajive Bagrodia (Los Angeles, USA)
  37320. Local Arrangements: Monika Lekuse (Edinburgh, U.K.)
  37321.  
  37322.                           Program Co-chairs
  37323.  
  37324.         D. K. Arvind                           Jason Yi-Bing Lin
  37325. Department of Computer Science,                     Bellcore,
  37326.    University of Edinburgh,                  MRE 2D-297 
  37327.        Mayfield Road,                          445 South Street
  37328.    Edinburgh EH9 3JZ, U.K.                 Morristown, NJ 07962, USA.
  37329.      dka@dcs.ed.ac.uk                      liny@thumper.bellcore.com
  37330.   Voice:  +44 31 650 5176                  Voice:  +1 (201) 829-5095
  37331.     Fax:  +44 31 667 7209                    Fax:  +1 (201) 829-5886
  37332.  
  37333.  
  37334.                           Program Committee
  37335.  
  37336. I. Akyildiz (Atlanta, USA)       A. Greenberg (Bell Laboratory, USA)
  37337. R. Ayani (Kista, Sweden)         P. Heidelberger (IBM, USA)
  37338. F. Baiardi (Pisa, Italy)         C. Lengauer (Passau, Germany)
  37339. M. Bailey* (Tucson, USA)         D. Nicol* (Williamsburg, USA)
  37340. S. Balsamo (Pisa, Italy)         T. Ott (Bellcore, USA)
  37341. H. Bauer (Munich, Germany)       B. Preiss (Waterloo, Canada)
  37342. R. Fujimoto* (Atlanta, USA)      S. Turner (Exeter, UK)
  37343.  
  37344. * Member of the Steering Committee\\
  37345.  
  37346. Send e-mail to D. K. Arvind (dka@dcs.ed.ac.uk) for inclusion in the PADS 
  37347. electronic mailing list.
  37348.  
  37349.                      Submissions:
  37350. Prospective authors should submit six copies of the paper written in
  37351. English and not exceeding 5000 words to either one of the Program Co-chairs.
  37352. Papers must be original and not submitted for publication elsewhere.
  37353. Each submission should include the following in a cover sheet: short
  37354. abstract, contact person for correspondence, postal and e-mail addresses.
  37355. To ensure blind reviewing, authors' names and affiliations
  37356. should appear only on the cover sheet.  Bibliographic references
  37357. should be modified so as not to compromise the authors' identity.
  37358. Papers submitted by electronic mail will not be considered.
  37359.  
  37360.  
  37361. Approved: parallel@hubcap.clemson.edu
  37362. Follow-up: comp.parallel
  37363. Path: bounce-back
  37364. Newsgroups: swnet.jobs,comp.parallel,comp.arch
  37365. From: lisper@sics.se (Bj|rn Lisper)
  37366. Subject: Research Assistant position at KTH, Stockholm
  37367. Sender: news@sics.se
  37368. Organization: Swedish Institute of Computer Science, Kista
  37369. Date: Wed, 24 Nov 1993 12:30:58 GMT
  37370. Apparently-To: comp-parallel@sunet.se
  37371.  
  37372. Research assistant position in Parallel Computer Systems at the
  37373. department of Teleinformatics, Royal Institute of Technology,
  37374. Stockholm (KTH). A PhD degree not older than 5 years is required.
  37375. The position is limited to four years.  Deadline for applications:
  37376. Dec. 9, 1993.  For more information contact:
  37377.  
  37378. Prof. Lars-Erik Thorelli                        Email: le@it.kth.se
  37379. Teleinformatics/Computer Systems                Phone: +46 8 7521351
  37380. KTH-Electrum/204                                Fax:   +46 8 7511793
  37381. S-164 40  Kista Sweden
  37382.  
  37383. Approved: parallel@hubcap.clemson.edu
  37384. Newsgroups: comp.parallel
  37385. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  37386. Subject: A bit of humor for your holiday enjoyment....
  37387.  
  37388.               Subj:   WHY ASK WHY
  37389.      
  37390.               Why do you need a driver's license to buy
  37391.               liquor when you can't drink and drive?
  37392.  
  37393.               Why isn't phonetic spelled the way it sounds?
  37394.  
  37395.               Why are there interstate highways in Hawaii?
  37396.  
  37397.               Why are there flotation devices under plane
  37398.               seats instead of parachutes?
  37399.  
  37400.               Why are cigarettes sold in gas stations when
  37401.               smoking is prohibited there?
  37402.  
  37403.               Do you need a silencer if you are going to
  37404.               shoot a mime?
  37405.             Have you ever imagined a world with no
  37406.               hypothetical situations?
  37407.  
  37408.               How does the guy who drives the snowplow
  37409.               get to work in the mornings?
  37410.  
  37411.               If 7-11 is open 24 hours a day, 365 days a year,
  37412.               why are there locks on the doors?
  37413.  
  37414.               If a cow laughed, would milk come out her nose?
  37415.  
  37416.               If nothing ever sticks to TEFLON, how do they
  37417.               make TEFLON stick to the pan?
  37418.  
  37419.               If you tied buttered toast to the back of a cat
  37420.               and dropped it from a height, what would happen?
  37421.  
  37422.               If you're in a vehicle going the speed of light,
  37423.               what happens when you turn on the headlights?
  37424.  
  37425.               You know how most packages say "Open here".  What is
  37426.               the protocol if the package says, "Open somewhere else"?
  37427.  
  37428.               Why do they put Braille dots on the keypad
  37429.               of the drive-up ATM?
  37430.  
  37431.               Why do we drive on parkways and park on driveways?
  37432.  
  37433.               Why is brassiere singular and panties plural?
  37434.  
  37435.               Why is it that when you transport something by car, it's called
  37436.             a shipment, but when you transport something by ship, it's
  37437.               called cargo?
  37438.  
  37439.               You know that little indestructible black box that is used on
  37440.               planes, why can't they make the whole plane out of the same
  37441.               substance?
  37442.  
  37443.                Why is it that when you're driving and looking for
  37444.                an address, you turn down the volume on the radio?
  37445. Approved: parallel@hubcap.clemson.edu
  37446. Follow-up: comp.parallel
  37447. Path: bounce-back
  37448. Newsgroups: comp.parallel,comp.arch
  37449. From: ahusain@wotangate.sc.ti.com (Adil Husain)
  37450. Subject: What is a good multicomputer disk block request distribution?
  37451. Sender: usenet@csc.ti.com
  37452. Nntp-Posting-Host: 192.91.134.114
  37453. Reply-To: ahusain@wotangate.sc.ti.com
  37454. Organization: Texas Instruments Inc.
  37455. Date: Wed, 24 Nov 1993 14:48:01 GMT
  37456. Apparently-To: comp-parallel@uunet.uu.net
  37457.  
  37458. Hi,
  37459.  
  37460. I'm in the process of adding compute-node *file* caching support to a
  37461. multicomputer simulator.  I have all the data structures in place to
  37462. handle actual I/O traces, but I don't have actual I/O traces, so I
  37463. need to somehow generate a meaningful stream of I/O requests using
  37464. random methods.  I do have what I think is a fairly good model of
  37465. multicomputer I/O request types and sizes.  To satisfy the file
  37466. caching mechanism, though, in which I'm keeping actual cache state, I
  37467. need to come up with a good disk block request distribution.  My
  37468. references say use uniform random.  What is the consensus?
  37469.  
  37470. Thanks for any help,
  37471. Adil
  37472.  
  37473. ---
  37474. -----------------------------------------------------------------------------
  37475. Adil Husain    \  ahusain@wotangate.sc.ti.com  \  adilh@pine.ece.utexas.edu
  37476. TI Prism Group  \  W:7132744061 & H:7135302576  \   I do not speak for TI.
  37477. -----------------------------------------------------------------------------
  37478.  
  37479.  
  37480. Approved: parallel@hubcap.clemson.edu
  37481. Follow-up: comp.parallel
  37482. Path: bounce-back
  37483. Newsgroups: comp.parallel
  37484. From: Mark Sawyer <cms@epcc.edinburgh.ac.uk>
  37485. Subject: Re: Bulk Synchronous Model?
  37486. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  37487. Organization: Edinburgh Parallel Computing Centre
  37488. References: <1993Nov24.134657.5258@hubcap.clemson.edu>
  37489. Date: Wed, 24 Nov 1993 15:21:32 GMT
  37490. Apparently-To: comp-parallel@uknet.ac.uk
  37491.  
  37492.  
  37493.  
  37494. In article <1993Nov24.134657.5258@hubcap.clemson.edu>, isclyhb@leonis.nus.sg (Benjamin Lian) writes:
  37495. > I am looking for papers on Valiant's Bulk Synchronous Model
  37496. > for parallel computing. Would greatly appreciate pointers in
  37497. > the right direction to start a literature search.
  37498.  
  37499. Try:
  37500.  
  37501. Valiant, L.G.  
  37502. A Bridging Model for Parallel Computation,
  37503. Communications of the ACM, August 1990, Vol. 33 No.8.
  37504.  
  37505.  
  37506.  
  37507. Approved: parallel@hubcap.clemson.edu
  37508. Follow-up: comp.parallel
  37509. Path: bounce-back
  37510. Newsgroups: comp.parallel
  37511. From: ss7540@csc.albany.edu (SHUKLA SANDEEP)
  37512. Subject: Re: concurrent langauges for teaching
  37513. Sender: news@csc.albany.edu (News Administrator)
  37514. Organization: State University of New York at Albany
  37515. References: <1993Nov24.133229.2463@hubcap.clemson.edu>
  37516. Date: 24 Nov 93 12:42:40
  37517. Apparently-To: comp-parallel@cis.ohio-state.edu
  37518.  
  37519. In article <1993Nov24.133229.2463@hubcap.clemson.edu> davec@ecst.csuchico.edu (Dave Childs) writes:
  37520. >I am trying to track down a good concurrent language for teaching concurrent
  37521. >concepts.  Something based on C, C++, or pascal would work nicely, but we
  37522. >are open to other possibilities.
  37523.  
  37524. You might like to try Distributed C freely available from the Universitat Muenchen and also another good system is  PCN( It has more documentations and books)
  37525. freely available from the Argonne National laboratory and Caltech.
  37526.  
  37527. Approved: parallel@hubcap.clemson.edu
  37528. Follow-up: comp.parallel
  37529. Path: bounce-back
  37530. Newsgroups: comp.parallel
  37531. From: mapdjb@midge.bath.ac.uk (D J Batey)
  37532. Subject: Re: Bulk Synchronous Model?
  37533. Message-ID: <CH0D4n.LDv@midge.bath.ac.uk>
  37534. Organization: University of Bath, UK
  37535. References: <1993Nov24.134657.5258@hubcap.clemson.edu>
  37536. Date: Wed, 24 Nov 1993 18:09:54 GMT
  37537.  
  37538. Someone asked for some pointers to Valiants Bulk Synchronous Model;
  37539. this is the only reference I have on that subject:
  37540.  
  37541. L.G.Valiant, "Bulk Synchronous Parallel Computers", 
  37542. Technical Report TR-08-89, Computer Science, Harvard University
  37543.  
  37544. Duncan Batey, University of Bath, UK, djb@uk.ac.bath.maths
  37545.  
  37546.  
  37547.  
  37548. Approved: parallel@hubcap.clemson.edu
  37549. Follow-up: comp.parallel
  37550. Path: bounce-back
  37551. Newsgroups: comp.parallel
  37552. Date: Wed, 24 Nov 93 11:31:38 PST
  37553. From: David Levine <davidl@SSD.intel.com>
  37554. Subject: Re: A bit of humor for your holiday enjoyment....
  37555. In-Reply-To: <1993Nov24.134922.5930@hubcap.clemson.edu>
  37556. Organization: Supercomputer Systems Division (SSD), Intel
  37557. Cc: 
  37558.  
  37559. >              How does the guy who drives the snowplow
  37560. >              get to work in the mornings?
  37561.  
  37562. A VW Beetle, of course!  ;-)
  37563.  
  37564. - David D. Levine, Intel Supercomputer Systems Division == davidl@ssd.intel.com
  37565.   "Fahrvergnugen."
  37566.  
  37567. Approved: parallel@hubcap.clemson.edu
  37568. Follow-up: comp.parallel
  37569. Path: bounce-back
  37570. Newsgroups: comp.parallel
  37571. From: ostr@acs2.bu.edu (boris ostrovsky)
  37572. Subject: Re: Kendall Square Research address
  37573. Date: 24 Nov 1993 19:38:26 GMT
  37574. Organization: Boston University, Boston, MA, USA
  37575. References: <1993Nov24.134708.5347@hubcap.clemson.edu>
  37576. Nntp-Posting-Host: acs2.bu.edu
  37577. Originator: ostr@acs2.bu.edu
  37578.  
  37579.  
  37580. In article <1993Nov24.134708.5347@hubcap.clemson.edu>, louk@teleride.on.ca (Lou Kates) writes:
  37581. |> Does anyone have contact info for Kendall Square Research?
  37582.  
  37583. KSR's address is:
  37584.  
  37585.         Kendall Square Research
  37586.         170 Tracer Lane
  37587.         Waltham, MA 02154-1379
  37588.         tel (617)-895-9400
  37589.         fax:(617)-890-7506
  37590.  
  37591.                                 Boris
  37592.  
  37593. Approved: parallel@hubcap.clemson.edu
  37594. Follow-up: comp.parallel
  37595. Path: bounce-back
  37596. Newsgroups: comp.parallel
  37597. From: icw@ecs.soton.ac.uk (I C Wolton)
  37598. Subject: RAPS benchmarking workshop
  37599. Date: 24 Nov 93 16:12:55 GMT
  37600. Organization: Electronics and Computer Science, University of Southampton
  37601. Nntp-Posting-Host: felinfoel.ecs.soton.ac.uk
  37602.  
  37603.  
  37604.  
  37605.  
  37606.                RAPS Open Workshop on Parallel Benchmarks
  37607.                         and Programming Models
  37608.  
  37609.            Chilworth Manor Conference Centre, Southampton, UK
  37610.  
  37611.                            7-8 Dec 1993
  37612.  
  37613.  
  37614.  
  37615. Workshop Overview
  37616. -----------------
  37617.  
  37618. This workshop will review recent developments in programing models for
  37619. parallel applications, outline the features of some of the RAPS parallel
  37620. benchmarks and present some complementary international initiatives. 
  37621. The final session will give the vendors an opportunity to
  37622. present the results of the RAPS benchmarks on their latest machines.
  37623.  
  37624.  
  37625.  
  37626. The RAPS Consortium
  37627. -------------------
  37628.  
  37629. The RAPS consortium was put together to promote the creation
  37630. of benchmarks for important production applications on massively-parallel
  37631. computers (RAPS stands for Real Applications on Parallel Systems). 
  37632. As part of this activity it has a strong interest in adopting a 
  37633. programming model that can provide portability without excessive
  37634. sacrifice of performance. The consortium consists of a number of
  37635. users and developers of significant large production codes running
  37636. on supercomputers. It is supported by a Consultative Forum of 
  37637. computer manufacturers which currently includes ACRI, Convex, Cray,
  37638. Fujitsu, IBM, Intel and Meiko.
  37639.  
  37640. Codes being worked on for the RAPS benchmark suite include:
  37641.  
  37642. PAM-CRASH  - a finite element code mainly used for car crash simulations 
  37643.                   
  37644. IFS/ARPEGE - a global atmospheric simulation code used for meteorology
  37645.              and climatology 
  37646.  
  37647. FIRE       - a fluid flow code used for automotive flow simulations 
  37648.  
  37649. GEANT      - used by CERN to simulate the interaction of high-energy
  37650.              particle showers with detectors 
  37651.  
  37652.  
  37653.  
  37654. Provisional Programme
  37655. ---------------------
  37656.  
  37657. The workshop will be held over two days, starting after lunch on
  37658. Tuesday 7th December and finishing at lunchtime on Wednesday 8th
  37659. December. Lunch will be available on both days. 
  37660.  
  37661.  
  37662. Tuesday 7 Dec, Afternoon
  37663.  
  37664.  
  37665.        Current status of RAPS
  37666.        Karl Solchenbach, PALLAS
  37667.  
  37668.        ESPRIT Application porting activities
  37669.        Adrian Colebrook, Smith, Guildford
  37670.  
  37671.        Impact of Cache on Data Organisation
  37672.        Richard Reuter, IBM Heidelberg
  37673.  
  37674.        High Performance Fortran Compiler Techniques and their
  37675.        Evaluation on some RAPS Benchmark Codes
  37676.        Thomas Brandes, GMD 
  37677.  
  37678.        MPI - A Standard Message Passing Interface
  37679.        Ian Glendinning, University of Southampton
  37680.  
  37681.  
  37682. Workshop Dinner
  37683.  
  37684.  
  37685. Wed 8 Dec, Morning
  37686.  
  37687.         The PEPS Benchmarking Methodology
  37688.         Ed Brocklehurst, National Physical Laboratory
  37689.  
  37690.         The PARKBENCH Initiative
  37691.         Tony Hey, University of Southampton
  37692.  
  37693.         The IFS spectral model: the 3D version with some preliminary results
  37694.         David Dent, ECMWF
  37695.  
  37696.         Vendor's Presentation of Results for the RAPS Benchmarks
  37697.  
  37698.  
  37699. Registration Details
  37700. --------------------
  37701.  
  37702. The registration fee is 120 pounds sterling, including lunch and refreshments.
  37703.  
  37704. An optional workshop dinner is being arranged at 25 pounds per head.
  37705.  
  37706. Accomodation is available at Chilworth Manor for 54.50 pounds per night.
  37707.  
  37708.  
  37709. Cheques for registration should be made payable to "University of Southampton"
  37710. Payment for accomodation and the dinner should be made direct to Chilworth 
  37711. Manor on the day.
  37712.  
  37713. Bookings and enquiries to:
  37714.  
  37715.  
  37716. Chris Collier
  37717. Electronics & Computer Science
  37718. Highfield
  37719. University of Southampton
  37720. Southampton S09 5NH                          
  37721.  
  37722. Tel: +44 703 592069                            
  37723. Fax: +44 703 593045                           
  37724. Email: cdc@ecs.soton.ac.uk 
  37725.  
  37726.  
  37727.  
  37728. This form should be returned to the conference organiser, Chris Collier.
  37729.  
  37730. Name  .......................................................
  37731.  
  37732. Organisation  ...............................................
  37733.  
  37734. Address  ....................................................
  37735.  
  37736.          ....................................................
  37737.  
  37738. Telephone  ..................................................
  37739.  
  37740. Email  ......................................................
  37741.  
  37742.  
  37743. Special Dietary Requirements ................................
  37744.  
  37745. .............................................................
  37746.  
  37747. Registration (Price in Pounds Sterling) :   120.00
  37748.  
  37749.  
  37750. I would like accomodation for the nights of 
  37751.  
  37752. .............................................................
  37753.  
  37754. I would like to attend the workshop dinner .................. Yes/No
  37755.  
  37756.  
  37757.  
  37758.  
  37759.  
  37760.  
  37761.  
  37762.  
  37763.  
  37764. Approved: parallel@hubcap.clemson.edu
  37765. Follow-up: comp.parallel
  37766. Path: bounce-back
  37767. Newsgroups: comp.parallel
  37768. From: hains@iro.umontreal.ca (Gaetan Hains)
  37769. Subject: Rencontres francophones du parallelisme
  37770. Sender: news@iro.umontreal.ca
  37771. Organization: Universite de Montreal, Canada
  37772. Date: Wed, 24 Nov 1993 19:58:17 GMT
  37773. Apparently-To: uunet!comp-parallel
  37774.  
  37775. RenPar'6
  37776.  
  37777. 6eme Rencontres francophones du parallelisme 
  37778. ENS Lyon, France, 6--10 juin 1994
  37779.  
  37780. Premiere annonce et appel aux communications
  37781.  
  37782. Apres les Rencontres sur le parallelisme organisees a Saint-Malo,
  37783. Toulouse, Marseille, Lille en mars 1992 et Brest en mai 1993, RenPar'6
  37784. est organise cette annee par le Laboratoire de l'informatique du
  37785. parallelisme (LIP) de l'ENS Lyon.  Comme pour les rencontres
  37786. precedentes, le but est de rassembler les chercheurs interesses par
  37787. les divers aspects du parallelisme et de favoriser les echanges, en
  37788. invitant plus specialement les jeunes chercheurs.  Forts du succes des
  37789. editions precedentes, nous souhaitons cette annee nous ouvrir
  37790. largement sur le monde francophone : Afrique noire francophone,
  37791. Afrique du nord, Belgique, Quebec, Suisse...
  37792.  
  37793. Les rencontres se tiendront dans le Grand amphitheatre de l'ENS Lyon
  37794. les 8, 9 et 10 juin. Elles seront precedees par deux journees de
  37795. tutoriels, demonstrations et formations sur des sujets interessant
  37796. notre communaute.
  37797.  
  37798.  
  37799. Themes abordes
  37800.  
  37801. Environnements de programmation 
  37802. Langages et compilation 
  37803. Architectures generales et specialisees 
  37804. Ordonnancement et placement             
  37805. Modeles et complexite                   
  37806. Reseaux et communications                
  37807. Algorithmique et systemes repartis      
  37808. Evaluation de performances             
  37809. Mise en uvre du parallelisme       
  37810.  
  37811. Comite de programme
  37812.  
  37813. Luc Bouge, president (LIP, ENS Lyon, France)    
  37814. Michel Cosnard, vice-president (LIP, ENS Lyon, France)  
  37815. Pierre Fraigniaud, vice-president (LIP, ENS Lyon, France)  
  37816.  
  37817. El Mostafa Daoudi (U. Mohamed 1, Oujda, Maroc)   
  37818. Jean-Luc Dekeyser (LIFL, Lille, France) 
  37819. Michel Diaz (LAAS, Toulouse, France)    
  37820. Daniel Etiemble (LRI, Orsay, France)    
  37821. Jean-Marie Filloque (LIBr, Brest, France) 
  37822. Claude Girault (MASI-IBP, Paris, France)        
  37823. Claude Jard (IRISA, Rennes, France)     
  37824. Gaetan Hains (DIRO, U. Montreal, Quebec)     
  37825. Gaetan Libert (Fac. Polytechnique, Mons, Belgique)    
  37826. Zaher Mahjoub (U. Tunis 2, Tunisie)  
  37827. Dominique Mery (CRIN, Nancy, France)   
  37828. Elie Milgrom (UCL, Louvain-la-Neuve, Belgique)    
  37829. Philippe Mussi (INRIA, Sophia-Antipolis, France)        
  37830. Guy-Rene Perrin (LIB, Besancon, France)                 
  37831. Patrice Quinton (IRISA, Rennes, France)                 
  37832. Jean Roman (LaBRI, Bordeaux, France)
  37833. Andre Schiper (EPFL, Lausanne, Suisse)                   
  37834. Maurice Tchuente (U. Yaounde, Cameroun)      
  37835. Denis Trystram (IMAG, Grenoble, France) 
  37836.  
  37837. Calendrier et contact
  37838.  
  37839. Prendre contact avec le secretariat :    des maintenant si necessaire ! 
  37840. Envoyer votre soumission :               15 mars 1994 
  37841. Notification d'acceptation :             25 avril 1994 
  37842. Envoi de la version revisee :            10 mai 1994 
  37843. Conference  RenPar'6 a l'ENS Lyon :      6--10 juin 1994 
  37844. Selection des communications pour TSI :  15 juin 1994 
  37845. Version etendue attendues :              1 septembre 1994        
  37846.  
  37847. Valerie Roger,  Secretaire de RenPar'6 
  37848. LIP, ENS Lyon, 46 allee d'Italie, F-69364 Lyon cedex 07, France     
  37849.  
  37850. Telephone : (+33) 72.72.80.37, 
  37851. Telecopie : (+33) 72.72.80.80, 
  37852. Internet :  renpar6@lip.ens-lyon.fr 
  37853.  
  37854. Soumission des communications
  37855.  
  37856. Les personnes desirant effectuer une communication sont invitees a
  37857. soumettre un texte de 4 pages A4 avant le 15 mars 1994.  La
  37858. notification sera envoyee aux auteurs pour le 25 avril. La version
  37859. revisee (de 4 pages au plus) de leur texte devra etre remise le 10 mai
  37860. pour inclusion dans les actes.  Une copie des actes des rencontres
  37861. sera distribuee sur place a chaque participant.
  37862.  
  37863. Selection pour un numero special TSI
  37864.  
  37865. Pendant les rencontres, le Comite de programme fera une selection des
  37866. meilleures communications dont les auteurs sont (exclusivement) de
  37867. jeunes chercheurs (etudiants en fin de these ou docteur depuis moins
  37868. de 3 ans). Les criteres retenus seront le contenu scientifique, la
  37869. qualite du texte de presentation et la qualite de l'expose.  Les
  37870. auteurs seront invites a soumettre une version etendue de leur
  37871. communication dans le cadre d'un numero special de la revue
  37872. francophone RAIRO Technique et Science Informatiques editee par
  37873. Hermes/AFCET.  La selection sera confirmee le 15 juin, et les articles
  37874. etendus seront dus le 1er septembre pour parution debut 1995.
  37875.  
  37876.  
  37877. Demonstrations, formations et rencontres de travail
  37878.  
  37879. Les personnes ou groupes souhaitant proposer une activite de
  37880. demonstration ou de formation sur un produit de recherche, sont
  37881. invites a soumettre une proposition avant le 15 mars.  Prendre contact
  37882. pour toute information sur les possibilites techniques offertes par
  37883. l'ENS Lyon : acces aux machines massivement paralleles, salles de
  37884. stations de travail, salles de cours equipees, etc.
  37885.  
  37886. Informations generales
  37887.  
  37888. Les frais de participation aux rencontres seront tenus au niveau le
  37889. plus bas possible en ce qui concerne les etudiants et membres des
  37890. universites et EPST pour permettre la participation la plus large
  37891. possible. Les repas de midi seront compris. L'hebergement sera a la
  37892. charge des participants, et une information concernant les diverses
  37893. possibilites sera transmise lors de l'inscription.
  37894.  
  37895.  
  37896.  
  37897.  
  37898.  
  37899.  
  37900. -- 
  37901.  
  37902. Gae'tan Hains   De'partement d'informatique et de recherche ope'rationnelle
  37903. Universite' de Montre'al, C.P.6128 succursale A, Montre'al, Que'bec H3C 3J7
  37904. Tel. +1 514 343-5747   |   Fax. +1 514 343-5834   |  hains@iro.umontreal.ca
  37905.  
  37906. Approved: parallel@hubcap.clemson.edu
  37907. Follow-up: comp.parallel
  37908. Path: bounce-back
  37909. Newsgroups: comp.parallel
  37910. From: mbl900@anusf.anu.edu.au (Mathew BM LIM)
  37911. Subject: Re: Supercomputer Sale to China
  37912. Date: 25 Nov 1993 01:56:54 GMT
  37913. Organization: Australian National University
  37914. References: <1993Nov22.135728.4241@hubcap.clemson.edu> <1993Nov24.132514.29916@hubcap.clemson.edu>
  37915. Nntp-Posting-Host: 150.203.5.2
  37916.  
  37917. In <1993Nov24.132514.29916@hubcap.clemson.edu> coker@cherrypit.princeton.edu (David A. Coker) writes:
  37918.  
  37919. >I believe the computer being sold to China is a Cray.
  37920.  
  37921. The article below is from HPCWire :
  37922.  
  37923. Clinton Approves Cray Research Supercomputer Deal with China        Nov 18
  37924. NEWS BRIEFS                                                        HPCwire
  37925. =============================================================================
  37926.   Seattle, Wash. -- The United States has agreed to sell a sophisticated $10-
  37927. million Cray Research YMP-2 supercomputer to China in an apparent goodwill
  37928. gesture on the eve of a summit between the countries' presidents, The New
  37929. York Times and Reuters reported last week.
  37930.   The deal was disclosed before last Friday's meeting between President
  37931. Clinton and Chinese President Jiang Zemin, the highest-level contact between
  37932. the two countries since the 1989 Tiananmen Square crackdown, Reuters said.
  37933.   The move was part of a White House strategy to embrace rather than isolate
  37934. China despite disagreements over human rights, weapons proliferation, and
  37935. trade, the New York Times reported, citing senior administration officials.
  37936.    Clinton, who had accused the Bush administration of "coddling" China, said
  37937. before the meeting that he was not softening the U.S. position toward
  37938. Beijing.
  37939.    "Our policy is to try to engage China but to be very firm with the human
  37940. rights issues, to be very firm on the weapons proliferation issues," he said.
  37941. "But there are 1.2 billion people in China and we don't believe we can
  37942. achieve our objectives within the context of complete isolation."
  37943.   Even more significant for American business, the administration has also
  37944. decided to lift the ban on important components for China's nuclear power
  37945. plants like generators, the newspaper said, citing Commerce Department
  37946. officials.
  37947.   The opening of China's nuclear market to American companies is expected to
  37948. bring billions of dollars of sales to General Electric Co., a huge
  37949. manufacturer of nuclear plants and equipment, the newspaper said.
  37950.   The Cray Research system involved in the sale was described as "a
  37951. relatively small mainline system, with two processors and a peak performance
  37952. of 958 megaFLOPS," by Steve Conway, a spokesman for Cray.
  37953.   Although Conway reported that the company had not yet received direct
  37954. confirmation of the sale's approval from the White House, U.S. officials told
  37955. Reuters that the deal was virtually complete.
  37956.   The decision to approve the sale stemmed from a request made by the Chinese
  37957. Meteorological Administration for equipment "for the purpose of monitoring
  37958. and predicting weather patterns," one official told Reuters.
  37959.   The sale was allowed despite what U.S. officials have described as clear
  37960. evidence that China has exported M-11 missile components to Pakistan in
  37961. violation of an international missile control accord.
  37962.   "We agreed to put in place a very tight monitoring regime to ensure that it
  37963. is only used for that purpose, and having done that we approved the sale,"
  37964. the official said. "This sale has nothing to do with sanctions. The sanctions
  37965. we have in place do not focus on this sort of thing."
  37966.   The official said the sale was in the United States' interest because the
  37967. international weather monitoring system uses Cray supercomputers like the one
  37968. involved in the deal with China.
  37969.   "This gives us needed coverage in that area," he said.
  37970. In informing Chinese Foreign Minister Qian Qichen Wednesday, U.S. Secretary
  37971. of State Warren Christopher did not ask for any concessions from Peking, the
  37972. New York Times said.
  37973.   Another official said the Chinese had already been informed of the
  37974. administration's approval of the sale but that it would be formally announced
  37975. in connection with the Clinton-Jiang meeting at the Asia-Pacific Economic
  37976. Cooperation forum, Reuters reported.
  37977.   The United States' ban on military sales to China, slapped on following the
  37978. army's crackdown on pro-democracy demonstrators in Tiananmmen Square, still
  37979. remains in place.
  37980.    In Washington D.C, acting State Department spokeswoman Christine Shelly
  37981. said two more hurdles must be cleared before the Cray YNP-2 could actually be
  37982. delivered to China, according to UPI. These hurdles are expected to only be a
  37983. formality.
  37984.    The Supercomputer Control Regime -- made up of Japan and the United
  37985. States, the only two nations that manufacture the massive data processors --
  37986. must endorse the sale, she said.
  37987.    She said the transaction must also be approved by the Coordinating
  37988. Committee for Multilateral Export Controls, a panel that was set up during
  37989. the Cold War by 17 western nations to prevent the sale to the East Bloc of
  37990. technology that can be used for military purposes.
  37991.    The Commerce Department, which issues licenses for such sales, has already
  37992. approved it, she said.
  37993. *****************************************************************************
  37994.                    S E L E C T   N E W S   S P O N S O R S
  37995.        Product specifications and company information in this section
  37996.            are available to both subscribers and non-subscribers.
  37997.  
  37998.  901) ANS                 902) IBM Corp.             904) Intel SSD
  37999.  905) Maximum Strategy    906) nCUBE                 907) Digital Equipment
  38000.  908) Hewlett-Packard     909) Fujitsu America       910) Convex Computer
  38001.  912) Avalon Computer     914) Applied Parallel Res. 915) Genias Software
  38002.  916) MasPar Computer     919) Transtech Parallel    921) Cray Research Inc.
  38003. *****************************************************************************
  38004. Copyright 1993 HPCwire.
  38005. To receive the weekly HPC Select News Bulletin at no charge, send e-mail to
  38006. "trial@hpcwire.ans.net". 
  38007.  
  38008.  
  38009. -- 
  38010. Mathew Lim, Unix Systems Programmer, ANU Supercomputer Facility,    
  38011. Australian National University, Canberra, ACT, Australia 0200.
  38012. Telephone : +61 6 249 2750     | 
  38013. Fax       : +61 6 247 3425    | E-Mail  : M.Lim@anu.edu.au
  38014.  
  38015. Approved: parallel@hubcap.clemson.edu
  38016. Follow-up: comp.parallel
  38017. Path: bounce-back
  38018. Newsgroups: comp.parallel
  38019. From: philippe@ens.ens-lyon.fr (Jean-Laurent Philippe)
  38020. Subject: Seeking info about LSF
  38021. Date: 26 Nov 1993 08:33:52 GMT
  38022. Organization: Ecole Normale Superieure de Lyon, France
  38023.  
  38024. Hi, netters,
  38025.  
  38026. Could anyone provide information about LSF ? How does it compare
  38027. to PVM ?
  38028.  
  38029. I will summarize to the net if I get enough information.
  38030.  
  38031. Jean-Laurent PHILIPPE
  38032. LHPC
  38033.  
  38034.  
  38035. Approved: parallel@hubcap.clemson.edu
  38036. Follow-up: comp.parallel
  38037. Path: bounce-back
  38038. Newsgroups: comp.parallel
  38039. From: farhat@argos.enst.fr (Jocelyne Farhat)
  38040. Subject: Requesting performance of thread systems
  38041. Date: 26 Nov 1993 10:20:12 GMT
  38042. Organization: Telecom Paris, France
  38043. Sender: farhat@argos.enst.fr (Jocelyne Farhat)
  38044. Nntp-Posting-Host: argos.enst.fr
  38045. Mime-Version: 1.0
  38046. Content-Type: text/plain; charset=iso-8859-1
  38047. Content-Transfer-Encoding: 8bit
  38048.  
  38049.  
  38050.  
  38051. I am looking for performance measurements of different thread 
  38052. systems (for example those of the systems Mach, Chorus and Solaris,
  38053. the Mach C Threads and SUN LWP libraries, and the POSIX standard,etc...)
  38054. to complete my bibliographical work on the subject.
  38055.  
  38056. Does anyone know or have any that have been already done?
  38057.  
  38058. Merci beaucoup.
  38059. Jocelyne.
  38060.  
  38061. P.S. Please send replies to farhat@inf.enst.fr
  38062.  
  38063.  
  38064. Approved: parallel@hubcap.clemson.edu
  38065. Follow-up: comp.parallel
  38066. Path: bounce-back
  38067. Newsgroups: comp.parallel
  38068. From: vgupta@research.nj.nec.com (Vipul Gupta)
  38069. Subject: Communication graphs in 'real' applications
  38070. Originator: vgupta@iris48
  38071. Sender: vgupta@research.nj.nec.com (Vipul Gupta)
  38072. Organization: NEC Research Institute
  38073. Date: Sat, 27 Nov 93 00:43:06 GMT
  38074. Apparently-To: uunet!comp-parallel
  38075.  
  38076.  
  38077.  
  38078.    I am currently investigating the potential
  38079.    benefits of using reconfigurable multi-computer
  38080.    networks. I am using the task interaction graph
  38081.    model for parallel applications -- vertices in 
  38082.    the graph represent parallel processes and edges
  38083.    represent the need for interprocess communication.
  38084.  
  38085.       I am looking for examples of such graphs for
  38086.    some 'real-life' applications. Unstructured graphs
  38087.    e.g. those arising in finite element applications
  38088.    are of particular interest. 
  38089.  
  38090.       I would really appreciate it if somebody can 
  38091.    provide me with access to such graphs. If you 
  38092.    think you have something that might serve my 
  38093.    purpose, but are not sure, I would still appreciate 
  38094.    hearing from you. I can be contacted via e-mail 
  38095.    at 
  38096.         vgupta@research.nj.nec.com    or 
  38097.         vgupta@yoko.rutgers.edu.
  38098.  
  38099.    Thank you for your time,
  38100.  
  38101.    Vipul Gupta
  38102.  
  38103.  
  38104.  
  38105.  
  38106.  
  38107. Approved: parallel@hubcap.clemson.edu
  38108. Follow-up: comp.parallel
  38109. Path: bounce-back
  38110. Newsgroups: comp.parallel
  38111. From: tony@aurora.cs.msstate.edu (Tony Skjellum)
  38112. Subject: MPI Library Paper Available
  38113. Date: 27 Nov 93 09:49:53 GMT
  38114. Organization: Mississippi State University
  38115. Nntp-Posting-Host: aurora.cs.msstate.edu
  38116. Summary: A paper on writing libraries with MPI is available now by ftp
  38117. Keywords: MPI, Parallel Libraries
  38118.  
  38119. Following up on my promise at the SC'93 MPI minisymposium,
  38120. the paper "Writing Libraries in MPI" is now available on anonymous
  38121. ftp.
  38122.  
  38123. site:    aurora.cs.msstate.edu
  38124. directory: pub/reports
  38125. file: mpi_lib_27nov93.ps.Z
  38126.  
  38127. This will appear in the Proceedings of the Scalable Libraries Conference,
  38128. to be published by IEEE Press.
  38129.  
  38130. -Tony Skjellum
  38131.  
  38132. --
  38133.     .    .    .    .    .    .    .    .      .
  38134. "There is no lifeguard at the gene pool." - C. H. Baldwin
  38135.             -             -                       -
  38136. Anthony Skjellum, MSU/ERC, (601)325-8435; FAX: 325-8997; tony@cs.msstate.edu
  38137.  
  38138. Approved: parallel@hubcap.clemson.edu
  38139. Follow-up: comp.parallel
  38140. Path: bounce-back
  38141. Newsgroups: comp.parallel
  38142. From: vip@kvant.munic.msk.su (Andrei I. Massalovitch)
  38143. Subject: COCOM is dead !! We need NN Boards, Supers, Info etc.
  38144. Date: Sun, 28 Nov 1993 11:00:55 GMT
  38145. X-Mailer: BML [MS/DOS Beauty Mail v.1.25]
  38146. Reply-To: vip@kvant.munic.msk.su
  38147. Organization: NII Kvant
  38148. Keywords: NN boards
  38149. Sender: news-server@kremvax.demos.su
  38150. Summary: COCOM is dead !! We need NN Boards, Supers, etc.
  38151. Message-ID: <ACdJ8-iGM7@kvant.munic.msk.su>
  38152.  
  38153. Dear Sir/Madam,
  38154.  
  38155. I'm Andrei Massalovitch, vice-president of Parallel Systems Division
  38156. of Scientific and Research Institute "Kvant". Our division is a young,
  38157. dynamic scientific team. For  the  last years we are making intensive
  38158. research  work  in the field of  parallel  supercomputing, transputer
  38159. systems and neural  networks. We hope that some of our results will
  38160. have both scientific and commercial interest.
  38161.  
  38162. Now we extremely need any information about special and general purpose
  38163. Neural Network PCBoards and ready to buy some of them immediately.
  38164.  
  38165.  
  38166.    We also would like to take this opportunity to introduce ourselves.
  38167. Parallel Systems Division is the team of more than 200 high-experience
  38168. hardware and software engineers.  The  business and  operations of our
  38169. Division fall  into  five  main directions.
  38170.  
  38171.  1.  Using transputer-based computers and neural networks to solve the
  38172. problems of image & signal processing.
  38173.    2.  Development of MIMD and SIMD parallel VLSI-based supercomputing
  38174. systems with 10-100 Gflops performance, intelligent workstations  with
  38175. 1 GIPS performance for signal/image processing and  various   modeling
  38176. problems . This job includes application  of  high-performance  micro-
  38177. processors  (e.g. i860) and transputers.
  38178.    3.   Development  of    large  distributed    computing/information
  38179. processing complexes.   Such complexes  can consist of general purpose
  38180. computers, problem-oriented  systems and  communication hardware.  IBM
  38181. PC/compatible PC   and  workstations are  used as terminals. Computing
  38182. resources integration  is realized with common network hardware.
  38183.  3.  Integrated solutions  of  data  protection  problems  in computer
  38184. systems and networks.
  38185.  5.  Developing of new models of a neuron and a neural network on  the
  38186. basis   of   the   latest   results   obtained   in Russian  and world
  38187. neurobiology  (This   is  the   first  attempt   of  creation  of  the
  38188. BioNeurocomputer in our country).
  38189.  
  38190.        Unfortunately,  during a  number of years most of this work was
  38191. conducted in  "special" laboratories  and we couldn't publish obtained
  38192. results. Now situation has changed. Most of former bans were  removed.
  38193.        It is very interesting for us to run the "information blockade"
  38194. and to engage in all types of cooperation with the  representatives of
  38195. scientific and industrial circles of your country.
  38196.  
  38197. Thanks in advance.
  38198. Yours faithfully,
  38199.  
  38200. Andrei Massalovitch          /\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\
  38201.                             <                                  >
  38202. Vice-President              >   Address : Dr. A.Massalovitch   <
  38203. Parallel Systems Division   <             P.O.Box 430          >
  38204. S&R Institute "Kvant"       >             121019 Moscow        <
  38205. Moscow, Russia              <             Russia               >
  38206.                              \/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/
  38207. ____________________________________________________________________
  38208.   E-mail : vip@kvant.munic.msk.su       Fax : (095) 153-9584
  38209. ____________________________________________________________________
  38210.  
  38211. -- 
  38212.  
  38213. Andrei Massalovitch
  38214.  
  38215.  
  38216.  
  38217.  
  38218. Approved: parallel@hubcap.clemson.edu
  38219. Follow-up: comp.parallel
  38220. Path: bounce-back
  38221. Newsgroups: comp.parallel
  38222. From: ukeller@pallas-gmbh.de (Udo Keller)
  38223. Subject: European MPI Workshop - First Announcement
  38224. Organization: PALLAS GmbH
  38225.  
  38226.         First Announcement
  38227.  
  38228.         E U R O P E A N     M P I     W O R K S H O P
  38229.  
  38230. MPI, the new standard for message-passing programming has been presented
  38231. at the Supercomputer'93 in Portland recently. The MPI (Message-Passing
  38232. Interface) standard has been defined by the transatlantic MPI Committee.
  38233. The European particpation in the MPI Committee was funded by the ESPRIT
  38234. project PPPE. 
  38235.  
  38236. The MPI Committee is now waiting for public comments until February
  38237. 11. European software developers are using message-passing systems for
  38238. many years. With their long experience in programming
  38239. message-passing parallel computers, European software developers should
  38240. be actively involved in the final round of the MPI definition.
  38241.  
  38242. It is the aim of the European MPI Workshop to organize the dissemination
  38243. of MPI in Europe and to collect the European developers' view on MPI. 
  38244.  
  38245.  
  38246. Date:            January 17/18 1994
  38247.  
  38248. Location:        INRIA Sophia Antipolis (near Nice)
  38249.  
  38250. Organized by:        PALLAS, GMD, INRIA (on behalf of the PPPE project)
  38251.  
  38252. Registration fee:    70 ECU or 450 FF (to be paid cash at registration
  38253.  
  38254.  
  38255. Who should attend:    European software developers with experience in
  38256.             parallel computing, preferably message passing.
  38257.             
  38258.             Participants from universities,
  38259.              research organizations, and industry are welcome.
  38260.  
  38261.             The maximum number of participants is 80.
  38262.  
  38263.  
  38264. Agenda:        
  38265.  
  38266. January 17 afternoon:    Presentation of the MPI message passing standard
  38267. January 18 morning:    Feedback of European software developers on MPI
  38268.  
  38269.             After the workshop the MPI Committee will have its
  38270.             European meeting.
  38271.  
  38272. If you want to participate or need more information, please contact PALLAS
  38273.  
  38274.              mpi-ws@pallas-gmbh.de
  38275.  
  38276. You will receive the MPI standard document. Details on speakers, transport,
  38277. hotels etc. will be sent out later.
  38278.  
  38279. -- 
  38280. ----------------------------------------------------------------------------
  38281. Udo Keller                      phone      :    +49-2232-1896-0
  38282. PALLAS GmbH                     fax        :    +49-2232-1896-29
  38283. Hermuelheimer Str.10            direct line:    +49-2232-1896-15
  38284. D-50321 Bruehl                  email      :    ukeller@pallas-gmbh.de
  38285. ----------------------------------------------------------------------------
  38286.  
  38287. Approved: parallel@hubcap.clemson.edu
  38288. Follow-up: comp.parallel
  38289. Path: bounce-back
  38290. From: ukeller@pallas-gmbh.de (Udo Keller)
  38291. Newsgroups: comp.sys.super,comp.parallel
  38292. Subject: CEC Evaluation on Technical Applications available
  38293. Organization: PALLAS GmbH
  38294.  
  38295. Technical Applications for High Performance Computers
  38296.  
  38297. New Evaluation Report from PALLAS GmbH, Germany
  38298.  
  38299.  
  38300. The lack of commercially available application software still is the main 
  38301. obstacle for the wide use of parallel computers. In particular, 3rd party 
  38302. software packages used by engineers in research and industry have not 
  38303. been ported to (massively) parallel computer systems. On behalf of the 
  38304. Commission of the European Communities, PALLAS has evaluated the needs 
  38305. of the European industrial users concerning the introduction of MPP 
  38306. systems and application software. A listing of the most important 3rd party 
  38307. application codes for technical simulation has been generated. 
  38308. Main criterion for the ranking was the need of the users to get these codes 
  38309. ported to parallel systems.
  38310.  
  38311. This evaluation study is available from PALLAS GmbH, Hermuelheimer Str. 10, 
  38312. D-50321 Bruehl, Germany, at a price of DM 150 not including VAT 
  38313. (phone: +49-2232-1896-0, email: info@pallas-gmbh.de).
  38314.  
  38315. PALLAS has long-year experience in high performance development and 
  38316. implementation of software for workstation clusters, parallel systems 
  38317. and supercomputers. PALLAS develops and markets the PARMACS interface 
  38318. and analysis tools for parallel programming.
  38319.  
  38320. -- 
  38321. ----------------------------------------------------------------------------
  38322. Udo Keller                      phone      :    +49-2232-1896-0
  38323. PALLAS GmbH                     fax        :    +49-2232-1896-29
  38324. Hermuelheimer Str.10            direct line:    +49-2232-1896-15
  38325. D-50321 Bruehl                  email      :    ukeller@pallas-gmbh.de
  38326. ----------------------------------------------------------------------------
  38327.  
  38328. Approved: parallel@hubcap.clemson.edu
  38329. Follow-up: comp.parallel
  38330. Path: bounce-back
  38331. Newsgroups: comp.parallel
  38332. From: ihzec@westminster.ac.uk (ihzec)
  38333. Subject: Available, FREE graduate for 14 week project in US.
  38334. Organization: University of Westminster
  38335. X-Newsreader: TIN [version 1.2 PL2]
  38336. Date: Mon, 29 Nov 1993 16:45:33 GMT
  38337. Apparently-To: comp-parallel@uk.ac.uknet
  38338.  
  38339.  
  38340.  
  38341.         Hi there!
  38342.  
  38343. I am currently studying for a Masters Degree in Parallel and Distributed Systems.
  38344. The final phase, requires I do  14 weeks  industrial placement in a related field, 
  38345. producing an original piece of work. I would like a placement in the US if possible.
  38346. If you would like more details about my interests, course, abilities or would like 
  38347. to discuss a project, please e-mail me. If you are unable to help presently, but 
  38348. know of someone  who can, would you be so kind as to pass this message on?
  38349.  
  38350.     Cheers
  38351.  
  38352.     Phil
  38353. |  Phil LoCascio                      +           _____           ____       |  
  38354. |  Centre of Parallel                 +         /____/  /____/    /    /     |        
  38355. |  Distributed Computing              +       /       /    /  __/__  /_____  |           
  38356. |  email: ihzec@uk.ac.westminster     +         If life's a big party,       |
  38357. Approved: parallel@hubcap.clemson.edu
  38358. Follow-up: comp.parallel
  38359. Path: bounce-back
  38360. Newsgroups: comp.parallel
  38361. From: farhat@argos.enst.fr (Jocelyne Farhat)
  38362. Subject: Requesting performance of thread systems
  38363. Organization: Telecom Paris, France
  38364. Sender: farhat@argos.enst.fr (Jocelyne Farhat)
  38365. Nntp-Posting-Host: argos.enst.fr
  38366. Mime-Version: 1.0
  38367. Content-Type: text/plain; charset=iso-8859-1
  38368. Content-Transfer-Encoding: 8bit
  38369.  
  38370.  
  38371.  
  38372.  
  38373. I am looking for performance measurements of different thread 
  38374. systems (for example those of the systems Mach, Chorus and Solaris,
  38375. the Mach C Threads and SUN LWP libraries, and the POSIX standard,etc...)
  38376. to complete my bibliographical work on the subject.
  38377.  
  38378. Does anyone know or have any that have been already done?
  38379.  
  38380. Merci beaucoup.
  38381. Jocelyne.
  38382.  
  38383. P.S. Please send replies to farhat@inf.enst.fr
  38384.  
  38385. Approved: parallel@hubcap.clemson.edu
  38386. Follow-up: comp.parallel
  38387. Path: bounce-back
  38388. Newsgroups: comp.parallel
  38389. From: npoch@uni-paderborn.de (Norbert Poch)
  38390. Subject: __shared on the KSR1 ?
  38391. Date: 29 Nov 1993 17:51:18 GMT
  38392. Organization: Uni-GH Paderborn, Germany
  38393. Nntp-Posting-Host: sunwing.uni-paderborn.de
  38394.  
  38395.  
  38396. -- 
  38397. Hi everyone,
  38398.  
  38399. I'm currently working on a KSR1-32 and C / C++. There are some questions 
  38400. regarding the usage of __shared directive I'd be very greatfull if someone 
  38401. could help me.
  38402.  
  38403. I've seen from the c-tutorial files that global variables that are to be
  38404. accessed from different pthreads are declared as __shared. Take for example
  38405. the following program.
  38406.  
  38407. I define a global array and access its data-elements in parallel from two 
  38408. pthreads. The behaviour of the pthreads's exactly the same for each declaration
  38409. of the array (__shared, __private and default). What's the difference between
  38410. these types of declarations? How can I declare a variable in the global scope
  38411. and place it in "local" memory?
  38412.  
  38413. Thanks to all those KSR1 folks out there!
  38414.  
  38415. Norbert Poch
  38416.  
  38417. _______________________________________________________________________________
  38418. Norbert Poch                    npoch@dat.uni-paderborn.de
  38419. Fachgebiet Datentechnik
  38420. Uni-GH Paderborn
  38421. (Germany)
  38422.  
  38423. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
  38424.  
  38425. #include <pthread.h>
  38426. #include <stdio.h>
  38427.  
  38428. /* define three arrays a, b and c  */
  38429. __shared int *a;    /* one as __shared             */
  38430. int *b;            /* one normally declared         */
  38431. __private int *c;    /* and the other one as __private     */
  38432.  
  38433. pthread_t a1,a2,b1,b2,c1,c2; /* and define two precesses to handle each array */
  38434.  
  38435. void init_data(int *d, int val)
  38436. {
  38437. /* initialize array elements */
  38438. }
  38439.  
  38440. void data_out(int *d) 
  38441. {
  38442. /* output array elements */
  38443. }
  38444.  
  38445. int main()
  38446. {
  38447.     /* create a mutex variable for printing on screen */
  38448.     pthread_mutex_init(&out,pthread_mutexattr_default);
  38449.  
  38450.     /* allocate memory for both arrays */
  38451.     a=(int*)malloc(10*sizeof(int));
  38452.     b=(int*)malloc(10*sizeof(int));
  38453.     c=(int*)malloc(10*sizeof(int));
  38454.  
  38455.     /* seta all values of arrays to a predefined value */
  38456.     init_data(a,128);
  38457.     init_data(b,255);
  38458.     init_data(c,64);
  38459.  
  38460.     /* check if values have been set correctly */
  38461.     data_out(a);
  38462.     data_out(b);
  38463.     data_out(c);
  38464.  
  38465.     /* create two pthreads to output data of array a */
  38466.     pthread_create(&a1,pthread_attr_default, data_out,(void *)a);
  38467.     pthread_create(&a2,pthread_attr_default, data_out,(void *)a);
  38468.     /* create two pthreads to output data of array b */
  38469.     pthread_create(&b1,pthread_attr_default, data_out,(void *)b);
  38470.     pthread_create(&b2,pthread_attr_default, data_out,(void *)b);
  38471.     /* create two pthreads to output data of array c */
  38472.     pthread_create(&c1,pthread_attr_default, data_out,(void *)c);
  38473.     pthread_create(&c2,pthread_attr_default, data_out,(void *)c);
  38474.  
  38475.     /* wait for all pthreads to terminate */
  38476.     pthread_join(a1,return_ptr);
  38477.     pthread_join(a2,return_ptr);
  38478.     pthread_join(b1,return_ptr);
  38479.     pthread_join(b2,return_ptr);
  38480.     pthread_join(c1,return_ptr);
  38481.     pthread_join(c2,return_ptr);
  38482. }
  38483.  
  38484. Approved: parallel@hubcap.clemson.edu
  38485. Follow-up: comp.parallel
  38486. Path: bounce-back
  38487. Newsgroups: comp.parallel
  38488. Date: Mon, 29 Nov 1993 12:47:51 EST
  38489. From: Pulin <sampat@CVAX.IPFW.INDIANA.EDU>
  38490. Subject: fifth neural network conference proceedings...
  38491.  
  38492. The Proceedings of the Fifth Conference on Neural Networks and Parallel
  38493. Distributed Processing at Indiana University-Purdue University at Fort Wayne,
  38494. held April 9-11, 1992 are now available. They can be ordered ($9 + $1 U.S.
  38495. mail cost; make checks payable to IPFW) from:
  38496.  
  38497. Secretary, Department of Physics                      FAX: (219)481-6880         
  38498. Voice: (219)481-6306 OR 481-6157
  38499. Indiana University Purdue University Fort Wayne            
  38500. email: proceedings@ipfwcvax.bitnet
  38501. Fort Wayne, IN 46805-1499
  38502.  
  38503. The following papers are included in the Proceedings of the Fifth Conference:
  38504.  
  38505. Tutorials
  38506.  
  38507. Phil Best, Miami University, Processing of Spatial Information in the Brain
  38508. William Frederick, Indiana-Purdue University, Introduction to Fuzzy Logic
  38509. Helmut Heller and K. Schulten, University of Illinois, Parallel Distributed
  38510.      Computing for Molecular Dynamics:  Simulation of Large Hetrogenous
  38511.      Systems on a Systolic Ring of  Transputer
  38512. Krzysztof J. Cios, University Of Toledo, An Algorithm Which Self-Generates
  38513.      Neural Network Architecture - Summary of Tutorial
  38514.  
  38515. Biological and Cooperative Phenomena Optimization
  38516.  
  38517. Ljubomir T. Citkusev & Ljubomir J. Buturovic, Boston University, Non-
  38518.      Derivative Network for Early Vision
  38519. M.B. Khatri & P.G. Madhavan, Indiana-Purdue University, Indianapolis, ANN
  38520.      Simulation of the Place Cell Phenomenon Using Cue Size Ratio
  38521. J. Wu, M. Penna, P.G. Madhavan, & L. Zheng, Purdue University at
  38522.      Indianapolis, Cognitive Map Building and Navigation
  38523. J. Wu, C. Zhu,  Michael A. Penna & S. Ochs, Purdue University at
  38524.      Indianapolis, Using the NADEL to Solve the Correspondence Problem
  38525. Arun Jagota, SUNY-Buffalo, On the Computational Complexity of Analyzing
  38526.      a Hopfield-Clique Network
  38527.  
  38528. Network Analysis
  38529.  
  38530. M.R. Banan & K.D. Hjelmstad, University of Illinois at Urbana-Champaign,
  38531.      A Supervised Training Environment Based on Local Adaptation,
  38532.      Fuzzyness, and Simulation
  38533. Pranab K. Das II & W.C. Schieve, University of Texas at Austin, Memory in
  38534.      Small Hopfield Neural Networks:  Fixed Points, Limit Cycles and Chaos
  38535. Arun Maskara & Andrew Noetzel, Polytechnic University, Forced Learning in
  38536.      Simple Recurrent Neural Networks
  38537. Samir I. Sayegh, Indiana-Purdue University, Neural Networks Sequential vs
  38538.      Cumulative Update: An * Expansion
  38539. D.A. Brown, P.L.N. Murthy, & L. Berke, The College of Wooster, Self-
  38540.      Adaptation in Backpropagation Networks Through Variable
  38541.      Decomposition and Output Set Decomposition
  38542. Sandip Sen, University of Michigan, Noise Sensitivity in a Simple Classifier
  38543.      System
  38544. Xin Wang, University of Southern California, Complex Dynamics of Discrete-
  38545.      Time Neural Networks
  38546. Zhenni Wang and Christine di Massimo, University of Newcastle, A Procedure
  38547.      for Determining the Canonical Structure of Multilayer Feedforward
  38548.      Neural Networks
  38549. Srikanth Radhakrishnan and C, Koutsougeras,  Tulane University, Pattern
  38550.      Classification Using the Hybrid Coulomb Energy Network
  38551.  
  38552. Applications
  38553.  
  38554. K.D. Hooks, A. Malkani, & L. C. Rabelo, Ohio University, Application of
  38555.      Artificial Neural Networks in Quality Control Charts
  38556. B.E. Stephens & P.G. Madhavan, Purdue University at Indianapolis, Simple
  38557.      Nonlinear Curve Fitting Using the Artificial Neural Network
  38558. Nasser Ansari & Janusz A. Starzyk, Ohio University, Distance Field Approach
  38559.      to Handwritten Character Recognition
  38560. Thomas L. Hemminger & Yoh-Han Pao, Case Western Reserve University, A
  38561.      Real-Time Neural-Net Computing Approach to the Detection and
  38562.      Classification of Underwater Acoustic Transients
  38563. Seibert L. Murphy & Samir I. Sayegh, Indiana-Purdue University, Analysis of
  38564.      the Classification Performance of a Back Propagation Neural Network
  38565.      Designed for Acoustic Screening
  38566. S. Keyvan, L. C. Rabelo, & A. Malkani, Ohio University, Nuclear Diagnostic
  38567.      Monitoring System Using Adaptive Resonance Theory
  38568.  
  38569.  
  38570.  
  38571.  
  38572. Approved: parallel@hubcap.clemson.edu
  38573. Follow-up: comp.parallel
  38574. Path: bounce-back
  38575. Newsgroups: comp.parallel
  38576. From: sims@gehrig.ucr.edu (david sims)
  38577. Subject: seeking ARGUS-related research
  38578. Date: 29 Nov 1993 19:44:16 GMT
  38579. Organization: University of California, Riverside   (College of Engineering/Computer Science)
  38580.  
  38581. I'm trying to track down references to research related to ARGUS.  I
  38582. have Liskov and Scheifler's 1983 TOPLAS paper, "Guardians and Actions:
  38583. Linguistic Support for Robust, Distributed Programs".
  38584.  
  38585. Would somone send me references to ARGUS-related work performed since
  38586. 1983?
  38587.  
  38588. many thanks,
  38589. dave sims
  38590. -- 
  38591. David L. Sims                              Department of Computer Science
  38592. sims@cs.ucr.edu                            University of California
  38593. +1 (909) 787-6437                          Riverside CA  92521-0304
  38594. PGP encryption key available on request.   USA
  38595.  
  38596. Approved: parallel@hubcap.clemson.edu
  38597. Follow-up: comp.parallel
  38598. Path: bounce-back
  38599. Newsgroups: comp.parallel
  38600. Path: aoi!nakasima
  38601. From: nakasima@kuis.kyoto-u.ac.jp (Hiroshi Nakashima)
  38602. Subject: Re: CFP: 8th ACM International Conference on Supercomputing (ICS'94)
  38603. In-Reply-To: cdp@sp95.csrd.uiuc.edu's message of Mon, 29 Nov 1993 19:18:41 GMT
  38604. Sender: news@kuis.kyoto-u.ac.jp
  38605. Nntp-Posting-Host: aoi.kuis.kyoto-u.ac.jp
  38606. Reply-To: nakasima@kuis.kyoto-u.ac.jp
  38607. Organization: Dept. of Info. Sci., Kyoto Univ., JAPAN
  38608. References: <1993Nov29.191841.23054@sparky.sterling.com>
  38609. Date: Tue, 30 Nov 1993 01:25:38 GMT
  38610. Apparently-To: comp-parallel@uunet.uu.net
  38611.  
  38612. In article <1993Nov29.191841.23054@sparky.sterling.com> cdp@sp95.csrd.uiuc.edu (Constantine Polychronopoulos) writes:
  38613.  
  38614. >      8th ACM International Conference on Supercomputing
  38615. >      ==================================================
  38616. >
  38617. >          Manchester, England, July 11-15, 1994
  38618. >          =====================================
  38619. > :
  38620. > :
  38621. >
  38622. >     Architecture -- Professor Shinji Tomita, Department of Information
  38623. >     Science, Kyoto University, Yoshida-hon-machi, Kyoto, Japan, T606.
  38624. >     tomita@kuis.kyoto-u.ac.jp. +81-75-753-5393.
  38625.  
  38626. We would like to ask you authors to send your papers on architectural
  38627. topics NOT TO THE ADDRESS ABOVE, BUT TO:
  38628.  
  38629.     ics94arc@kuis.kyoto-u.ac.jp
  38630.  
  38631. so that we can pick up submission mails easily.
  38632.  
  38633. We also ask you to attach information for contact to PS manuscript,
  38634. preferably in the enclosed format.
  38635.  
  38636. Best Regards,
  38637.  
  38638. Prof. Shinji Tomita            Prof. Hiroshi Nakashima
  38639. Vice Program Chair (Architecture)    Dept. of Information Science
  38640. Dept. of Information Science        Kyoto University
  38641. Kyoto University
  38642. ---
  38643. % Fill the following and attach it to PS manuscript, and send them
  38644. % together to ics94arc@kuis.kyoto-u.ac.jp
  38645. %
  38646. \title{}        % title of the paper
  38647. \authors{}{}        % author's name and affiliation
  38648. %            % if two or more authors, duplicate this entry like;
  38649. %            % \authors{1st author's name}{1st author's affi.}
  38650. %            % \authors{2nd author's name}{1st author's affi.}
  38651. %            %    :
  38652. %            % \authors{n-th author's name}{n-th author's affi.}
  38653. \name{}            % name of the person for further contact
  38654. \zip{}            % zip code and/or country name
  38655. \address{}        % surface mail address
  38656. \organization{}        % organization name
  38657. \section{}        % section name
  38658. \tel{}            % phone number
  38659. \fax{}            % facsimile number
  38660. \email{}        % e-mail address
  38661. %
  38662. % The following is an example
  38663. % \title{The Architecture of a Massively Parallel Computer}
  38664. % \authors{Shinji Tomita}{Kyoto Univ.}
  38665. % \authors{Hiroshi Nakashima}{Kyoto Univ.}
  38666. % \name{Shinji Tomita}
  38667. % \zip{606-01, JAPAN}
  38668. % \address{Yoshida Hon-Machi, Sakyou-Ku, Kyoto}
  38669. % \organization{Kyoto University}
  38670. % \section{Dept. of Information Science}
  38671. % \tel{+81-75-753-5373}
  38672. % \fax{+81-75-753-5379}
  38673. % \email{tomita@kuis.kyoto-u.ac.jp}
  38674.  
  38675. Approved: parallel@hubcap.clemson.edu
  38676. Follow-up: comp.parallel
  38677. Path: bounce-back
  38678. Newsgroups: comp.parallel
  38679. From: german@cs.columbia.edu (German Goldszmidt)
  38680. Subject: Re: concurrent langauges for teaching
  38681. Date: 30 Nov 1993 03:47:18 GMT
  38682. Organization: Computer Science Department Columbia University
  38683. References: <1993Nov24.133229.2463@hubcap.clemson.edu> <1993Nov29.155309.18274@hubcap.clemson.edu>
  38684.  
  38685. In article <1993Nov29.155309.18274@hubcap.clemson.edu>, ss7540@csc.albany.edu (SHUKLA SANDEEP) writes:
  38686. > In article <1993Nov24.133229.2463@hubcap.clemson.edu> davec@ecst.csuchico.edu (Dave Childs) writes:
  38687. > >I am trying to track down a good concurrent language for teaching concurrent
  38688. > >concepts.  Something based on C, C++, or pascal would work nicely, but we
  38689. > >are open to other possibilities.
  38690.  
  38691. You might also like to try Concert/C, which is C based 
  38692. and is freely available from IBM research,
  38693. via anonymous ftp from software.watson.ibm.com.
  38694. It was tried in a course here at Columbia, and also at NYU. 
  38695. -- 
  38696. |German S. Goldszmidt                                   |
  38697. |Computer Science Dept.           tel: +1 212 939 7099  |
  38698. |Columbia University              fax: +1 212 666 0140  |
  38699. |530 West 120th Street, #626                            |
  38700. Approved: parallel@hubcap.clemson.edu
  38701. Follow-up: comp.parallel
  38702. Path: bounce-back
  38703. From: dwilmot@crl.com (Dick Wilmot)
  38704. Newsgroups: comp.parallel,comp.arch
  38705. Subject: Re: What is a good multicomputer disk block request distribution?
  38706. Date: 29 Nov 1993 22:38:29 -0800
  38707. Organization: CRL Dialup Internet Access
  38708. References: <1993Nov29.155254.18115@hubcap.clemson.edu>
  38709.  
  38710. ahusain@wotangate.sc.ti.com (Adil Husain) writes:
  38711.  
  38712. >Hi,
  38713.  
  38714. >I'm in the process of adding compute-node *file* caching support to a
  38715. >multicomputer simulator.  I have all the data structures in place to
  38716. >handle actual I/O traces, but I don't have actual I/O traces, so I
  38717. >need to somehow generate a meaningful stream of I/O requests using
  38718. >random methods.  I do have what I think is a fairly good model of
  38719. >multicomputer I/O request types and sizes.  To satisfy the file
  38720. >caching mechanism, though, in which I'm keeping actual cache state, I
  38721. >need to come up with a good disk block request distribution.  My
  38722. >references say use uniform random.  What is the consensus?
  38723.  
  38724. >Thanks for any help,
  38725. >Adil
  38726.  
  38727. >---
  38728. >-----------------------------------------------------------------------------
  38729. >Adil Husain    \  ahusain@wotangate.sc.ti.com  \  adilh@pine.ece.utexas.edu
  38730. >TI Prism Group  \  W:7132744061 & H:7135302576  \   I do not speak for TI.
  38731. >-----------------------------------------------------------------------------
  38732.  
  38733.  
  38734. I studied file access patterns in a serious way a few years back. Studied 
  38735. mainframes (IBM and compatibles) and PCs. Found that the average byte in 
  38736. a file system is hardly ever accessed. A few, small files account for a 
  38737. large portion of data accesses. The most active 1% of OPENED files for 
  38738. any given week accounted for 40 - 60% of all I/O activity. There were 
  38739. many files that weren't even opened in a week's time so the activity was 
  38740. actually even more skewed than these numbers. The only extremely active 
  38741. files were quite small and often highly shared by many users, many 
  38742. processes and several computers (MVS operating system allows disk sharing 
  38743. across computer systems). These fileslived in data centers supporting 
  38744. large, active database systems. Large files were never highly active on a 
  38745. per byte basis. These results were reported in the proceedings of the 
  38746. Dec. 1989 Computer Measurement Group conference.
  38747.  
  38748. There have also been a number of other studies. Osterhout at Berkeley and 
  38749. someone at Rochester. A recent paper by BYU researchers in IEEE Trans. on 
  38750. Knowledge & Data Engineering also found the hottest 1% of disk space 
  38751. accounting for 50% of I/O activity.
  38752.  
  38753. The same pattern seems to reappear on all different kinds of systems. 
  38754. This was actually predicted by a Harvard professor in the mid 1940s. His 
  38755. name is Zipf and they call it Zipf's law. He studied these patterns in 
  38756. many different kinds of systems. English language word usage comes to 
  38757. mind where he studied Joyce's _Ulysses_ and found that they most common 
  38758. 28 words acccounted for some large percentage of all words counted.
  38759.  
  38760. I heard that a study at a supercomputer site found that 30% of the files 
  38761. were write-only (never actually read -- about as cold as you can get).
  38762.  
  38763. If you want realistic I/O patterns then accesses will be highly skewed 
  38764. toward a few favorite locations and then spreadign out over the rest of 
  38765. the file system. Negative exponential as I recall.
  38766. -- 
  38767.         Dick Wilmot
  38768.         Editor, Independent RAID Report
  38769.         (510) 938-7425
  38770.  
  38771. Approved: parallel@hubcap.clemson.edu
  38772. Follow-up: comp.parallel
  38773. Path: bounce-back
  38774. Newsgroups: comp.parallel
  38775. From: Zahid.Hussain@brunel.ac.uk (Zahid Hussain)
  38776. Subject: SIMD/MSIMD for 3D graphics
  38777. Message-ID: <CHArto.3F4@brunel.ac.uk>
  38778. Organization: Brunel University, Uxbridge, UK
  38779. Date: Tue, 30 Nov 1993 09:03:22 GMT
  38780.  
  38781.  
  38782. Does anyone have any reference as to how SIMD/MSIMD parallel processors
  38783. are being used for 3D graphics? In which directions are the research 
  38784. being directed?
  38785. Many thanks in anticipation.
  38786.     **Zahid.
  38787.  
  38788. Dr Zahid Hussain
  38789. Research Fellow, Dept of Electrical Engineering
  38790. Brunel University            E-mail: Zahid.Hussain@brunel.ac.uk
  38791. Uxbridge, Middlesex UB8 3PH        Tel: +44 (0)895 274000 x2227
  38792.  
  38793. Approved: parallel@hubcap.clemson.edu
  38794. Follow-up: comp.parallel
  38795. Path: bounce-back
  38796. Newsgroups: comp.parallel
  38797. From: hsingh@seas.gwu.edu (harmel singh)
  38798. Subject: Re: Supercomputer Sale to China
  38799. Date: 30 Nov 1993 12:29:51 GMT
  38800. Organization: George Washington University
  38801. References: <1993Nov22.135728.4241@hubcap.clemson.edu> <1993Nov24.132514.29916@hubcap.clemson.edu> <1993Nov29.155422.18819@hubcap.clemson.edu>
  38802.  
  38803. Mathew BM LIM (mbl900@anusf.anu.edu.au) wrote:
  38804. => In <1993Nov24.132514.29916@hubcap.clemson.edu> coker@cherrypit.princeton.edu (David A. Coker) writes:
  38805.  
  38806. => >I believe the computer being sold to China is a Cray.
  38807. => The article below is from HPCWire :
  38808. => Clinton Approves Cray Research Supercomputer Deal with China        Nov 18
  38809. ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  38810.  
  38811. but wasn't Cray trying to sell a supercomputer to india a couple of years back
  38812. which of course fell through because indians could not convince the US that
  38813. they would be using it for pure weather forecasting :)
  38814.  
  38815. and yes they(indians) went ahead to make there own Hypercube.
  38816.  
  38817. there was an interesting article on this "bungling of multi million dollar deal" in the washington post this spring.
  38818. apparently the policymakers are improvising!
  38819.  
  38820. lets see ... Megabucks  Vs. Human rights ...hard decision indeed :)
  38821.  
  38822. hks.
  38823.  
  38824. PS: 
  38825. i don't think this article belongs here... but hey, i am just stating the 
  38826. facts.
  38827.  
  38828.  
  38829. Approved: parallel@hubcap.clemson.edu
  38830. Follow-up: comp.parallel
  38831. Path: bounce-back
  38832. Newsgroups: comp.parallel
  38833. From: grabner@gup.uni-linz.ac.at (Siegfried Grabner,GUP-Linz)
  38834. Reply-To: grabner@gup.uni-linz.ac.at
  38835. Organization: GUP Linz, University Linz, AUSTRIA
  38836. Subject: CONPAR 94 / VAPP VI - second announcement 
  38837. Keywords: 
  38838.  
  38839.  
  38840.                                  CONPAR 94 - VAPP VI
  38841.  
  38842.                      Johannes Kepler University of Linz, Austria
  38843.                                  September 6-8, 1994
  38844.  
  38845.                        Second Announcement and Call For Papers
  38846.  
  38847.  
  38848.  
  38849. The past decade has seen the emergence of two highly successful series of CONPAR
  38850. and of VAPP conferences on the subject of parallel processing. The Vector and
  38851. Parallel Processors in Computational Sciene meetings were held in Chester (VAPP
  38852. I, 1981), Oxford (VAPP II, 1984), and Liverpool (VAPP III, 1987). The Inter-
  38853. national Conferences on Parallel Processing took place in Erlangen (CONPAR 81),
  38854. Aachen (CONPAR 86) and Manchester (CONPAR 88). In 1990 the two series joined 
  38855. together and the CONPAR 90 - VAPP IV conference was organized in Zurich. CONPAR 
  38856. 92 - VAPP V took place in Lyon, France.
  38857.  
  38858. The next event in the series, CONPAR 94 - VAPP VI, will be organized in 1994 at
  38859. the University of Linz (Austria) from September 6 to 8, 1994. The format of the
  38860. joint meeting will follow the pattern set by its predecessors. It is intended to 
  38861. review hardware and architecture developments together with languages and 
  38862. software tools for supporting parallel processing and to highlight advances in 
  38863. models, algorithms and applications software on vector and parallel architec-
  38864. tures.
  38865.  
  38866.  
  38867. It is expected that the program will cover
  38868. ==========================================
  38869.  
  38870. * languages / software tools         * automatic parallelization and mapping
  38871. * hardware / architecture            * performance analysis
  38872. * algorithms                         * applications
  38873. * models / semantics                 * paradigms for concurrency
  38874. * testing and debugging              * portability
  38875.  
  38876. A special session will be organized on Parallel Symbolic Computation.
  38877.  
  38878.  
  38879. The proceedings of the CONPAR 94 - VAPP VI conference are intended to be
  38880. published in the Lecture Notes in Computer Science series by Springer Verlag.
  38881.  
  38882. This conference is organized by GUP-Linz in cooperation with RISC-Linz, ACPC and 
  38883. IFSR. Support is provided by GI-PARS, OCG, OGI, IFIP WG10.3.
  38884.  
  38885.  
  38886. Schedule
  38887. ========
  38888.  
  38889. Submission of complete papers                          Feb 15 1994
  38890. Notification of acceptance                             May 1 1994
  38891. Final (camera-ready) version of accepted papers        July 1 1994
  38892.  
  38893.  
  38894. Paper Submittance
  38895. =================
  38896.  
  38897. Contributors are invited to send five copies of a full paper not exceeding 15 
  38898. double-spaced pages in English to the program committee chairman at:
  38899.  
  38900.               Research Institute for Symbolic Computation (RISC-Linz) 
  38901.               Johannes Kepler University, A-4040 Linz, Austria 
  38902.               Phone: +43 7236 3231 41, Fax: +43 7236 3231 30 
  38903.               Email: conpar94@risc.uni-linz.ac.at
  38904.  
  38905. The title page should contain a 100 word abstract and five specific keywords.
  38906.  
  38907. CONPAR/VAPP also accepts and explicitly encourages submission by electronic mail 
  38908. to conpar94@risc.uni-linz.ac.at. 
  38909.  
  38910. Submitted files must be either
  38911.  
  38912.            * in uuencoded (preferably compressed) DVI format or
  38913.            * in uuencoded (preferably compressed) PostScript format
  38914.  
  38915. as created on most Unix systems by
  38916.  
  38917.            cat paper.ps | compress | uuencode paper.ps.Z > paper.uue
  38918.  
  38919.  
  38920. Invited Speakers
  38921. ================
  38922.  
  38923. Ian Foster (Argonne National Laboratory)
  38924. Kai Hwang (Stanford University)
  38925. Monica Lam (Stanford University)
  38926.  
  38927.  
  38928. Organizing Committee
  38929. ====================
  38930.  
  38931. Conference Chairman:    Prof. Jens Volkert
  38932. Honorary Chairman:      Prof. Wolfgang Handler
  38933. Program Chairman:       Prof. Bruno Buchberger
  38934. Members:                Siegfried Grabner, Wolfgang Schreiner
  38935. Conference Address: University of Linz, 
  38936.                 Dept. of Computer Graphics and Parallel Processing
  38937.                     (GUP-Linz) 
  38938.                 Altenbergerstr. 69, A-4040 Linz, Austria
  38939.                 Tel.: +43-732-2468-887 (884), Fax.: +43-732-2468-10
  38940.                                                         (c/o Siegfried Grabner)
  38941.                 Email: conpar94@gup.uni-linz.ac.at
  38942.  
  38943.  
  38944. Program Committee
  38945. =================
  38946.  
  38947. Chairman: Bruno Buchberger (Austria)
  38948.  
  38949. Makoto Amamiya (Japan), Francoise Andre (France), Marco Annaratone (USA), Pramod
  38950. C.P. Bhatt (India), Dario Bini (Italy), Arndt Bode (Germany), Kiril Boyanov 
  38951. (Bulgaria), Helmar Burkhart (Switzerland), Michel Cosnard (France), Frank Dehne 
  38952. (Canada), Mike Delves (UK), Ed F. Deprettere (The Netherlands), Jack Dongarra (USA),
  38953. Iain Duff (UK), Klaus Ecker (Germany), John P. ffitch (UK), Rolf Fiebrich (USA),
  38954. Ian Foster (USA), Geoffrey Fox (USA), Christian Fraboul (France), Wolfgang
  38955. Gentzsch (Germany), Thomas Gross (USA), Gaetan Hains (Canada), Guenter Haring
  38956. (Austria), Hiroki Honda (Japan), Hoon Hong (Austria), Friedel Hossfeld (Germany),
  38957. Roland N. Ibbett (UK), Chris Jesshope (UK), Harry Jordan (USA), Peter Kacsuk 
  38958. (Hungary), Erich Kaltofen (USA), Hironori Kasahara (Japan), Wolfgang Kleinert 
  38959. (Austria), Wolfgang Kuechlin (Germany), Otto Lange (Germany), Michael A. Langston
  38960. (USA), Allen D. Malony (USA), Alfonso Miola (Italy), Nikolay Mirenkov (Japan),
  38961. Yoichi Muraoka (Japan), Philippe Navaux (Brasil), David A. Padua (USA), Cherri
  38962. Pancake (USA), Dennis Parkinson (UK), Guy-Rene Perrin (France), Ron Perrott (UK),
  38963. Bernard Philippe (France), Brigitte Plateau (France), Ramon Puigjaner (Spain),
  38964. Michael J. Quinn (USA), Gerard L. Reijns (The Netherlands), Karl-Dieter Reinartz
  38965. (Germany), Dirk Roose (Belgium), Wojciech Rytter (Poland), Stanislav G. Sedukhin
  38966. (Japan), B. Sendov (Bulgaria), Othmar Steinhauser (Austria), Ondrej Sykora
  38967. (Slovakia), Denis Trystram (France), Eugene Tyrtyshnikov (Russia), Mateo Valero
  38968. (Spain), Marco Vanneschi (Italy), Paul Vitanyi (The Netherlands), Jens Volkert
  38969. (Austria), Richard Wait (UK), Paul S. Wang (USA), Peter Zinterhof (Austria).
  38970.  
  38971.  
  38972. Reply Form
  38973. ==========
  38974.  
  38975. We encourage you to reply via e-mail, giving us the information listed below. If
  38976. you do not have the possibility to use e-mail, please copy the form below and 
  38977. send it to the conference address.
  38978.  
  38979. ------------------------------- cut here ---------------------------------------
  38980.  
  38981.                           CONPAR 94 - VAPP VI 
  38982.                               Reply Form
  38983.  
  38984. Name:                      First Name:                Title:     
  38985. Institution:             
  38986. Address:             
  38987. Telephone:                 Fax:                       E-Mail:     
  38988.  
  38989. Intentions (please check appropriate boxes)
  38990.  
  38991.        o     I expect to attend the conference
  38992.        o     I wish to present a paper
  38993.        o     I wish to present at the exhibition (industrial / academic)
  38994.  
  38995. ------------------------------------------------------------------------------
  38996. Siegfried GRABNER                                 Tel: ++43-732-2468-884 (887)
  38997. Dept. for Graphics and Parallel Processing        Fax: ++43-732-2468-10
  38998. (GUP-Linz)
  38999. Johannes Kepler University                        Email: 
  39000. Altenbergerstr.69, A-4040 Linz,Austria/Europe     conpar94@gup.uni-linz.ac.at
  39001. ------------------------------------------------------------------------------
  39002.  
  39003. Approved: parallel@hubcap.clemson.edu
  39004. Follow-up: comp.parallel
  39005. Path: bounce-back
  39006. Newsgroups: comp.parallel
  39007. From: Lionel.Kervella@irisa.fr (Lionel Kervella)
  39008. Subject: barrier synchronization and reduction on KSR1
  39009. Date: 30 Nov 1993 13:31:31 GMT
  39010. Organization: IRISA, Campus de Beaulieu, 35042 Rennes Cedex, FRANCE
  39011.  
  39012. I am looking for efficient implementations of barrier of synchronization
  39013. and reduction operations in C language or assembler on the KSR1 machine.
  39014.  
  39015. I am wondering if there is an another alternative than the use of primitives
  39016. pthread_barrier_checkout and pthread_barrier_checkin to do efficient barrier
  39017. of synchronization ?
  39018.  
  39019. Moreover, i would like to know if the TCGMSG library provides good reductions.
  39020. If someone have already use it, i will appreciate his comments.
  39021.  
  39022. Thank you for your help.
  39023. Lionel Kervella.
  39024.  
  39025.  
  39026. Approved: parallel@hubcap.clemson.edu
  39027. Follow-up: comp.parallel
  39028. Path: bounce-back
  39029. Newsgroups: comp.parallel
  39030. From: trachos@uni-paderborn.de (Konstantin Trachos)
  39031. Subject: References about Topic "hot spot" ?
  39032. Date: 30 Nov 1993 14:18:50 GMT
  39033. Organization: Uni-GH Paderborn, Germany
  39034. Nntp-Posting-Host: sunflower.uni-paderborn.de
  39035.  
  39036. Hi,
  39037.  
  39038. I need some pointers to previous work done concerning the
  39039. appearance or avoidance of hot spots in parallel programs.
  39040. Any information will be welcome.
  39041.  
  39042. Thanks for any help. I will summarize if there is interest.
  39043.  
  39044. -- 
  39045.  
  39046. Konstantin Trachos            email: trachos@dat.uni-paderborn.de
  39047. --------------------------------------------------------------------------------
  39048. <<La tolirance est la chariti de l' intelligence.>> Jules Lemantre (1853 - 1914)
  39049.  
  39050. Approved: parallel@hubcap.clemson.edu
  39051. Follow-up: comp.parallel
  39052. Path: bounce-back
  39053. Newsgroups: comp.parallel
  39054. From: DSPWorld@world.std.com (Amnon Aliphas)
  39055. Subject: "CALL FOR PAPERS - ICSPAT'94 - DSP WORLD EXPO"
  39056. Organization: The World Public Access UNIX, Brookline, MA
  39057. Date: Tue, 30 Nov 1993 16:38:09 GMT
  39058. Apparently-To: uunet!comp-parallel
  39059.  
  39060.  
  39061.  
  39062.                              CALL FOR PAPERS  -   ICSPAT '94
  39063.  
  39064.     International Conference on Signal Processing Applications & Technology
  39065.  
  39066.                             featuring DSP World Expo.
  39067.  
  39068.      October 18-21,1994 Grand Kempinski Hotel - Dallas, Texas
  39069.  
  39070.  
  39071. ITF Product Reviewer
  39072. ~~~~~~~~~~~~~~~~~~~~    |      Application Areas:  Aerospace
  39073. Mr. Nicolas Mokhoff    |
  39074. Electronic Eng. Times    |               Audio
  39075. USA                     |
  39076.                         |                          Automotive
  39077. Technical Review Comm.    |
  39078. ~~~~~~~~~~~~~~~~~~~~~~  |                   Communications
  39079. Dr. David Almagor       |
  39080. National Semiconductor     |                       Consumer Products
  39081. Israel                |
  39082.                     |                       DSP Machines
  39083. Mr. Pradeep Bardia      |
  39084. Sonitech International  |                          DSP Software
  39085. USA                    |
  39086.                         |                  DSP Technology
  39087. Dr. Aziz Chihoub        |    
  39088. Siemens Corporate Res.    |               Geophysics
  39089. USA                    |
  39090.                 |                          Image Processing
  39091. Dr. Ron Crochiere       |
  39092. AT&T Bell Laboratories  |                          Industrial Control
  39093. USA                |
  39094.             |               Instrumentation & Testing
  39095. Dr. Mohamed El-Sharkawy |
  39096. Indiana U./Purdue U.    |                          Medical Electronics
  39097. USA            |            
  39098.             |               Multimedia
  39099. Dr. Joseph B. Evans     |                           
  39100. University of Kansas    |               Neural Networks
  39101. USA            |
  39102.             |                        Parallel Processing
  39103. Dr. Hyeong-Kyo Kim    |
  39104. ETRI                    |               Processor Architectures
  39105. Korea            |
  39106.             |               Radar
  39107. Mr. Gerald McGuire    |
  39108. Analog Devices        |               Radio SATCOM & NAV
  39109. USA            |
  39110.             |               Robotics
  39111. Dr. Bruce Musicus    |
  39112. Bolt Beranek & Newman    |               Speech Processing
  39113. USA            |
  39114.             |               Telephony
  39115. Dr. Panos Papamichalis  |
  39116. Texas Instruments    |               Underwater/Sonar
  39117. USA            |
  39118.                         |               VLSI Architectures
  39119. Mr. Robert A. Peloso    |
  39120. Panasonic, ATVL.        |               Virtual Reality
  39121. USA                     |
  39122.                         |               & Other Applications
  39123. Dr. Matt Perry          |
  39124. Motorola                |
  39125. USA                     | 
  39126.             | Mail, Fax or E-Mail 400-Word Abstract by April15,1994
  39127. Dr. William Ralston    |
  39128. The Mitre Corporation    |    DSP ASSOCIATES        Tel: (617) 964-3817
  39129. USA            |    18 Peregrine Rd.    Fax: (617) 969-6689
  39130.             |    Newton, MA 02159
  39131. Dr. James B. Riley    |
  39132. MIT - Lincoln Lab.    |    e_mail: DSPWorld@world.std.com
  39133. USA            |
  39134.             |
  39135. Mr. Vojin Zivojnovic    |
  39136. RTWH            |
  39137. Germany            |
  39138. ______________________________________________________________________________
  39139.  
  39140. Sponsored by:       DSP Associates -- Electronic Engineering Times
  39141.  
  39142. ______________________________________________________________________________
  39143.  
  39144. Approved: parallel@hubcap.clemson.edu
  39145. Follow-up: comp.parallel
  39146. Path: bounce-back
  39147. Newsgroups: comp.parallel
  39148. From: pchawla@vlsisun.ece.uc.edu (Praveen Chawla)
  39149. Subject: Software Partitioning, Mapping and Assessment Tool ?
  39150. Date: 30 Nov 93 12:31:55
  39151. Organization: Dept. of ECE, University of Cincinnati
  39152. Nntp-Posting-Host: vlsisun.ece.uc.edu
  39153.  
  39154.  
  39155. I am investigating the state-of-the-art in the area of partitioning,
  39156. mapping and assessment of software for distributed and/or parallel
  39157. computing. I will appreciate it if you could point me to relevant
  39158. literature/commercial offering in this area. If there is interest, I will
  39159. summarize on the net.
  39160.  
  39161. Please respond by email to pchawla@mtl.com
  39162.  
  39163. Thanks in advance 
  39164.  
  39165. Praveen Chawla                 Electronic Mail: pchawla@mtl.com
  39166. Advanced Technology Programs            Voice Mail: (513) 426-3832 ext 319
  39167. 3481, Dayton-Xenia Road            Phone: (513) 426-3111
  39168. Dayton, OH 45432
  39169. Approved: parallel@hubcap.clemson.edu
  39170. Follow-up: comp.parallel
  39171. Path: bounce-back
  39172. Newsgroups: comp.parallel
  39173. From: ss7540@csc.albany.edu (SHUKLA SANDEEP)
  39174. Subject: Re: concurrent langauges for teaching
  39175. Organization: State University of New York at Albany
  39176. In article <1993Nov24.133229.2463@hubcap.clemson.edu> davec@ecst.csuchico.edu (Dave Childs) writes:
  39177. >I am trying to track down a good concurrent language for teaching concurrent
  39178. >concepts.  Something based on C, C++, or pascal would work nicely, but we
  39179. >are open to other possibilities.
  39180.  
  39181. You might like to try Distributed C freely available from the Universitat Muenchen and also another good system is  PCN( It has more documentations and books)
  39182. freely available from the Argonne National laboratory and Caltech.
  39183.  
  39184.  
  39185. Approved: parallel@hubcap.clemson.edu
  39186. Follow-up: comp.parallel
  39187. Path: bounce-back
  39188. Newsgroups: comp.parallel
  39189. From: mstalzer@pollux.usc.edu (Mark Stalzer)
  39190. Subject: Re: looking for a Travelling Salesman code for CM
  39191. Organization: University of Southern California, Los Angeles, CA
  39192. References: <1993Nov24.133215.2390@hubcap.clemson.edu>
  39193.  
  39194. I think you can solve this problem on a PC using Simulated
  39195. Annealing as described in Numerical Recipes section 10.9.
  39196. They describe a technique that can be modified to account
  39197. for weather (the code given minimizes the number of
  39198. crossing of the Mississippi). -- Mark
  39199.  
  39200. ------------
  39201. Mark Stalzer, Hughes Research Labs RL65, 3011 Malibu Canyon Rd, Malibu, CA 90265E-Mail: stalzer@macaw.hrl.hac.com  Voice: 310-317-5581  FAX: 310-317-5483
  39202.  
  39203. Approved: parallel@hubcap.clemson.edu
  39204. Follow-up: comp.parallel
  39205. Path: bounce-back
  39206. Newsgroups: comp.parallel.pvm,comp.parallel,sci.math.num-analysis
  39207. From: zook@technology.com (Brian Zook)
  39208. Subject: parallel ODE solvers
  39209. Message-Id: <1993Nov29.163149.8337@technology.com>
  39210. Summary: Looking for source code
  39211. Organization: Southwest Research Institute, San Antonio, Texas
  39212. Date: Mon, 29 Nov 1993 16:31:49 GMT
  39213. Apparently-To: uunet!comp-parallel
  39214.  
  39215. I am looking for source code for solving systems of ODEs on parallel
  39216. computing systems.  I am particularly interested in clusters running
  39217. PVM, but other architectures may at least point me in the right
  39218. direction.
  39219.  
  39220. I have conducted a literature search to find appropriate papers.  And
  39221. I have attempted to search various archives (such as netlib) using
  39222. Archie as well as cyberspace using Gopher.  But I have come up empty.
  39223. Perhaps these types of routines are not archived, as they are a fairly
  39224. recent development.  Someone out there may have some available code
  39225. that they have not released.
  39226.  
  39227. I appreciate any aid you can give me.  Postings, e-mail, phone calls,
  39228. etc. are all welcome.
  39229.  
  39230. Brian Zook
  39231. Southwest Research Institute
  39232. San Antonio, Texas
  39233. bzook@swri.edu 210-522-3630
  39234.  
  39235. Approved: parallel@hubcap.clemson.edu
  39236. Follow-up: comp.parallel
  39237. Path: bounce-back
  39238. Newsgroups: comp.parallel,comp.sys.transputer
  39239. From: saxena@tarski.albany.edu (Tushar Saxena)
  39240. Subject: Sites for Research on Multi-Transputer Systems
  39241. Organization: University At Albany, New York, USA
  39242. Date: Tue, 30 Nov 93 20:29:25 GMT
  39243.  
  39244. I would like to know about the places/univs/institutions in the US
  39245. where active research is going on in the area of Multi-Transputer Systems.
  39246.  
  39247. Thanks in advance.
  39248.  
  39249. Tushar Saxena
  39250.  
  39251. Approved: parallel@hubcap.clemson.edu
  39252. Follow-up: comp.parallel
  39253. Path: bounce-back
  39254. Newsgroups: comp.parallel
  39255. From: nsrcjl@leonis.nus.sg (Jerry Lim Jen Ngee)
  39256. Subject: High Performance Computing Conference '94 - Singapore
  39257. Organization: National University of Singapore
  39258.  
  39259. High Performance Computing Conference '94  -  Singapore
  39260. 'Challenges into the 21st century'
  39261.  
  39262. FIRST ANNOUNCEMENT AND CALL FOR PAPERS
  39263.  
  39264.     29 - 30 September 1994
  39265.     Hyatt Regency Singapore
  39266.     Singapore
  39267.  
  39268. High Performance Computing Conference '94 will bring together
  39269. professionals in the field of high performance computing to present their
  39270. achievements, discuss issues, and exchange experiences and ideas. It will
  39271. be a showcase to gather and disseminate relev ant information on high
  39272. performance computing. The conference will cover various topics of high
  39273. performance computing such as parallel, distributed, cluster, and
  39274. heterogeneous computing. These topics include, but are not limited to, the
  39275. following: 
  39276.  
  39277. * High Performance Architectures
  39278. * High Performance Data Communication Networks
  39279. * High Performance IO and File Systems
  39280. * HPC Applications and Case Studies
  39281. * Languages, Compilers, and Operating Systems
  39282. * Load Balancing
  39283. * Parallel, Distributed, Cluster, and Heterogeneous Algorithms
  39284. * Performance Modelling and Evaluation
  39285. * Reliability and Fault Tolerance
  39286. * Software Tools and Programming Environments
  39287. * Theory of Parallel, Distributed, and Heterogeneous Computing
  39288. * Visualization for HPC
  39289. * Large Application Software Development for HPC
  39290.  
  39291.  
  39292. Submissions
  39293.  
  39294. Authors are invited to submit original unpublished papers.  All submitted
  39295. papers will be reviewed. The papers will be considered for either
  39296. conference papers or poster papers. Please include the corespondent
  39297. author's email, fax and postal address with the submission. All accepted
  39298. papers will be published in the conference proceedings. The deadline for
  39299. submission is April 15, 1994. 
  39300.  
  39301. Four copies of the manuscript of not more than 20 double-spaced pages,
  39302. including figures and text, are to be sent to : 
  39303.  
  39304. Mrs. Evelyn Lau
  39305. High Performance Computing Conference'94
  39306. National Supercomputing Research Centre
  39307. National University of Singapore
  39308. 81 Science Park Drive
  39309. #04-03  The Chadwick
  39310. Singapore Science Park
  39311. Singapore 0511
  39312. Tel : (65) 7709 203
  39313. Fax : (65) 7780 522
  39314. E-mail : admin@nsrc.nus.sg.
  39315.  
  39316.  
  39317. Important Dates
  39318.  
  39319. Paper submission deadline   :     April 15, 1994
  39320. Notification of acceptance  :     June 15, 1994
  39321. Camera ready papers due     :     July 15, 1994
  39322.  
  39323. Approved: parallel@hubcap.clemson.edu
  39324. Follow-up: comp.parallel
  39325. Path: bounce-back
  39326. Newsgroups: comp.parallel
  39327. Path: hertz.njit.edu!njl5453
  39328. From: njl5453@hertz.njit.edu (Nitin Lad  ee)
  39329. Subject: Cray T3D system...??..
  39330. Message-ID: <1993Nov30.031453.10522@njitgw.njit.edu>
  39331. Sender: news@njit.edu
  39332. Nntp-Posting-Host: hertz.njit.edu
  39333. Organization: New Jersey Institute of Technology, Newark, New Jersey
  39334. Date: Tue, 30 Nov 1993 03:14:53 GMT
  39335.  
  39336.  
  39337.     Does anyone know where I can find more detail
  39338.     info on the new CRAY T3D system development effort?
  39339.  
  39340.     I know that it is Alpha processor based supercomputer
  39341.     in various # processors and configurations.
  39342.  
  39343.     I would very much appreciate any pointers to
  39344.     ref materials(mag., articles, etc.) talks about
  39345.     hw architecture and soft. supp. for the new sys.
  39346.  
  39347.  
  39348.     Please reply to:   njl5453@hertz.njit.edu
  39349.  
  39350.     Nitin
  39351.     Electrical Engineering
  39352.     N.J.I.T.
  39353.  
  39354.  
  39355. Approved: parallel@hubcap.clemson.edu
  39356. Follow-up: comp.parallel
  39357. Path: bounce-back
  39358. Newsgroups: comp.parallel
  39359. From: rick@cs.arizona.edu (Rick Schlichting)
  39360. Subject: CFP: 13th Symp. on Reliable Distributed Systems
  39361. Date: 30 Nov 1993 22:29:20 -0700
  39362. Organization: University of Arizona CS Department, Tucson AZ
  39363.  
  39364.  
  39365.                   CALL FOR PAPERS
  39366.  
  39367.                  13th Symposium on
  39368.             Reliable Distributed Systems
  39369.  
  39370.       Oct. 25 (Tues), 1994 - Oct. 27 (Thurs), 1994
  39371.                 Dana Point, California
  39372.  
  39373. SPONSORS:
  39374.    IEEE Computer Society TC on Distributed Processing
  39375.    IEEE Computer Society TC on Fault-Tolerant Computing
  39376.    IFIP WG 10.4 on Dependable Computing
  39377.  
  39378. THEME:
  39379. The theme of the symposium is reliability of distributed and parallel
  39380. systems, including distributed applications, distributed operating systems,
  39381. and distributed databases.  Papers are sought that address the reliability,
  39382. availability, security, and performance aspects of distributed and parallel
  39383. systems.  Papers that deal with experimental results, testbeds, development,
  39384. and data from operational systems are of particular interest.
  39385.  
  39386. TOPICS OF INTEREST:
  39387. The following topics, as they relate to distributed and parallel systems,
  39388. are of interest to the Symposium:
  39389.  - System-Level and Software Fault Tolerance
  39390.  - Fault-Tolerance Formalism
  39391.  - Database Systems
  39392.  - Operating Systems
  39393.  - Security
  39394.  - Experimental Systems with High Reliability Mechanisms
  39395.  - Object-Oriented Systems
  39396.  - Transaction Processing Systems
  39397.  - Performance and Reliability Modeling
  39398.  - Programming Language Support for Reliable Computing
  39399.  - Real-Time Fault-Tolerance
  39400.  
  39401. PAPER SUBMISSIONS:
  39402. Papers must be written in English and printed using at least 11-point type
  39403. and 1-1/2 line spacing.  They should be no more than 20 pages in manuscript,
  39404. including figures.  Authors are requested to submit five copies of
  39405. their manuscript by March 15, 1994 to:
  39406.  
  39407.                     Prof. Richard D. Schlichting
  39408.                     Department of Computer Science
  39409.                     Gould-Simpson Building
  39410.                     The University of Arizona
  39411.                     Tucson, AZ 85721, USA
  39412.  
  39413.                     +1-602-621-4324
  39414.                     rick@cs.arizona.edu
  39415.  
  39416. Authors will be notified by June 1, 1994.
  39417. Final camera-ready copies are due July 9, 1994.
  39418.  
  39419. AWARDS:
  39420. The Wing Toy Best Student Paper Award, carrying a monetary award,
  39421. will be given to the best student paper accepted for the Symposium.
  39422. A paper is eligible for the award only if (1) it will be presented
  39423. at the Symposium by a student co-author, and (2) the research it presents
  39424. is essentially the work of the student co-authors and the involvement
  39425. of the non-student co-authors was restricted to advising the student
  39426. co-authors.  The  detailed Award rules will be provided to the authors
  39427. of the accepted papers.
  39428.  
  39429. TUTORIALS:
  39430. Persons interested in teaching a half-day or full-day tutorial on
  39431. topics related to the theme of the symposium are encouraged to
  39432. submit a proposal with a brief syllabus by March 15, 1994 to:
  39433.  
  39434.                     Dr. Devesh Bhatt
  39435.                     Honeywell Systems & Research Center
  39436.                     3660 Technology Drive  MN65-2100
  39437.                     Minneapolis, MN 55418, USA
  39438.  
  39439.                     +1-612-951-7316
  39440.                     bhatt@src.honeywell.com
  39441.  
  39442. =====================================================================
  39443.  
  39444. SYMPOSIUM CO-CHAIRS:
  39445.      Kane Kim
  39446.      University of California, Irvine
  39447.  
  39448.      Algirdas Avizienis
  39449.      University of California, Los Angeles
  39450.  
  39451. PROGRAM COMMITTEE CHAIR:
  39452.  
  39453.      Richard D. Schlichting
  39454.      University of Arizona
  39455.  
  39456. PROGRAM COMMITTEE:
  39457.      A. Abouelnaga (TRW)
  39458.      F. Bastani (Univ. of Houston)
  39459.      B. Bhargava (Purdue Univ.)
  39460.      R. Bianchini (Carnegie-Mellon Univ.)
  39461.      F. Cristian (Univ. of California, San Diego)
  39462.      M. Dal Cin (Univ. of Erlangen)
  39463.      S. Davidson (Univ. of Pennsylvania)
  39464.      J. Bechta Dugan (Univ. of Virginia)
  39465.      K. Fuchs (Univ. of Illinois)
  39466.      M. Hecht (SoHaR, Inc.)
  39467.      F. Jahanian (Univ. of Michigan)
  39468.      S. Jajodia (George Mason Univ.)
  39469.      D. Johnson (Carnegie-Mellon Univ.)
  39470.      T. Kikuno (Osaka Univ.)
  39471.      J. Kim (Texas A&M Univ.)
  39472.      E. Nett (GMD)
  39473.      C. Pu (Oregon Graduate Institute) 
  39474.      K. Ramamrithan (Univ. of Massachusetts)
  39475.      W. Sanders (Univ. of Arizona)
  39476.      L. Simoncini (Univ. of Pisa)
  39477.      D. Taylor (Univ. of Waterloo)
  39478.      P. Versissimo (INESC)
  39479.  
  39480. TUTORIALS CO-CHAIRS:
  39481.  
  39482.      Devesh Bhatt    
  39483.      Honeywell Systems and Research Center
  39484.  
  39485.      Gary Craig
  39486.      Syracuse University
  39487.  
  39488. FINANCE CHAIR:
  39489.  
  39490.      I-Ling Yen 
  39491.      Michigan State University
  39492.  
  39493. LOCAL ARRANGEMENTS CO-CHAIRS:
  39494.  
  39495.      Douglas Blough
  39496.      University of California, Irvine
  39497.  
  39498.      Kwei-Jay Lin
  39499.      University of California, Irvine
  39500.  
  39501. PUBLICITY CO-CHAIRS:
  39502.  
  39503.      Chandra Kintala
  39504.      AT&T Bell Labs
  39505.  
  39506.      Tom Lawrence
  39507.      Rome Labs
  39508.  
  39509.      Raif Yanney
  39510.      TRW
  39511.  
  39512. REGISTRATION CHAIR:
  39513.  
  39514.      Luiz Bacellar
  39515.      University of California, Irvine
  39516.  
  39517. AWARDS CO-CHAIRS:
  39518.  
  39519.      Leszek Lilien
  39520.      AT&T Bell Labs
  39521.  
  39522.      Arthur Toy
  39523.      NCR
  39524.  
  39525. TC LIAISON:
  39526.  
  39527.      Bharat Bhargava
  39528.      Purdue University
  39529.  
  39530.  
  39531. Approved: parallel@hubcap.clemson.edu
  39532. Follow-up: comp.parallel
  39533. Path: bounce-back
  39534. Newsgroups: comp.parallel,comp.sys.super
  39535. From: jet@nas.nasa.gov (J. Eric Townsend)
  39536. Subject: mailing list info on TMC CM-5, Intel iPSC/860, Intel Paragon
  39537. Sender: news@nas.nasa.gov (News Administrator)
  39538. Nntp-Posting-Host: boxer.nas.nasa.gov
  39539. Organization: NAS/NASA-Ames Research Center
  39540. Date: Wed, 1 Dec 1993 08:00:16 GMT
  39541. Apparently-To: comp-parallel@ames.arc.nasa.gov
  39542.  
  39543.  
  39544. J. Eric Townsend (jet@nas.nasa.gov)
  39545. last updated: 29 Nov 1993 (updated mailing addresses)
  39546.  
  39547. This file is posted to USENET automatically on the 1st and 15th of
  39548. each month.
  39549.  
  39550. It is mailed to the respective lists to remind users how to
  39551. unsubscribe and set options.
  39552.  
  39553. INTRODUCTION
  39554. ------------
  39555.  
  39556. Several mailing lists exist at NAS for the discussion of using and
  39557. administrating Thinking Machines CM-5  and Intel iPSC/860 parallel
  39558. supercomputers.
  39559.  
  39560. These mailing lists are open to all persons interested in the systems.
  39561.  
  39562. The lists are:
  39563.  
  39564. LIST-NAME               DESCRIPTION
  39565. cm5-managers    --  discussion of administrating the TMC CM-5
  39566. cm5-users       --       "     "   using the TMC CM-5
  39567. ipsc-managers      --       "     "  administrating the Intel iPSC/860
  39568. ipsc-users      --       "     "  using the Intel iPSC/860
  39569. paragon-managers   --       "     "  administrating the Intel Paragon
  39570. paragon-users   --       "     "  using the Intel Paragon
  39571.  
  39572. The ipsc-* lists at cornell are going away, the lists here will
  39573. replace them. (ISUG members will be receiving information on this in
  39574. the near future.)  The cm5-users list is intended to complement the
  39575. lbolt list at MSC.
  39576.  
  39577. SUBSCRIBING/UNSUBSCRIBING
  39578. -------------------------
  39579.  
  39580. All of the above lists are run with the listserv package.  In the
  39581. examples below, substitute the name of the list from the above table
  39582. for the text "LIST-NAME".
  39583.  
  39584. To subscribe to any of the lists, send email to
  39585. listserv@nas.nasa.gov with a *BODY* of
  39586.  
  39587. subscribe LIST-NAME your_full_name
  39588.  
  39589. Please note:
  39590.  - you are subscribed with the address that you sent the email from.
  39591.    You cannot subscribe an address other than your own.  This is
  39592.    considered a security feature, but I haven't gotten around to taking
  39593.    it out.
  39594.  - your subscription will be handled by software, so any other text
  39595.    you send will be ignored
  39596.  
  39597. Unsubscribing
  39598.  
  39599. It is important to understand that you can only unsubscribe from the
  39600. address you subscribed from.  If that is impossible, please contact
  39601. jet@nas.nasa.gov to be unsubscribed by hand.  ONLY DO THIS IF
  39602. FOLLOWING THE INSTRUCTIONS DOES NOT PRODUCE THE DESIRED RESULTS!  I
  39603. have better things to do than manually do things that can be
  39604. automated.
  39605.  
  39606. To unsubscribe from any of the mailing lists, send email to
  39607. listserv@nas.nasa.gov with a body of
  39608.  
  39609. unsubscribe LIST-NAME
  39610.  
  39611. OPTIONS
  39612. -------
  39613. If you wish to receive a list in digest form, send a message
  39614. to listserv@nas.nasa.gov with a body of
  39615.  
  39616. set LIST-NAME mail digest
  39617.  
  39618. OBTAINING ARCHIVES
  39619. ------------------
  39620.  
  39621. There are currently no publicly available archives.  As time goes on,
  39622. archives of the lists will be made available.  Watch this space.
  39623. -- 
  39624. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  39625. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  39626. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  39627. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  39628.  
  39629. Approved: parallel@hubcap.clemson.edu
  39630. Follow-up: comp.parallel
  39631. Path: bounce-back
  39632. Newsgroups: comp.parallel
  39633. From: kaylan%TRBOUN.BITNET@FRMOP11.CNUSC.FR
  39634. Reply-To: kaylan%TRBOUN.BITNET@FRMOP11.CNUSC.FR
  39635. Subject: ESS'94 - Call For Papers
  39636.  
  39637. ESS'94
  39638. EUROPEAN SIMULATION SYMPOSIUM
  39639.  
  39640. CALL FOR  PAPERS
  39641.  
  39642. ISTANBUL, TURKEY
  39643. OCTOBER 9-12, 1994
  39644.  
  39645. HOSTED BY
  39646. BOGAZICI UNIVERSITY
  39647.  
  39648. Organized and sponsored by:
  39649.  
  39650. The Society for Computer Simulation International (SCS)
  39651.  
  39652. With cooperation of:
  39653.  
  39654. The European Simulation Council (ESC)
  39655.  
  39656. Ministry of Industry and Trade, Turkey
  39657.  
  39658. Operational Research Society of Turkey (ORST)
  39659.  
  39660. Cosponsored by:
  39661.  
  39662. Bekoteknik
  39663.  
  39664. Digital
  39665.  
  39666. Hewlett Packard
  39667.  
  39668. IBM Turk
  39669.  
  39670. Main Topics:
  39671.  
  39672. * Advances in Simulation Methodology and Practices
  39673. * Artificial Intelligence in Simulation
  39674. * Innovative Simulation Technologies
  39675. * Industrial Simulation
  39676. * Computer and Telecommunication Systems
  39677.  
  39678. CONFERENCE COMMITTEE
  39679.  
  39680. Conference Chairman:
  39681.  
  39682. Prof. Dr. Tuncer I. Oren
  39683. University of Ottawa, Computer Science Department, 150 Louis Pasteur / Pri.,
  39684. Ottawa, Ontario, Canada K1N 6N5
  39685. Phone: 1.613.654.5068
  39686. Fax: 1.613.564.7089
  39687. E-mail: oren@csi.uottawa.ca
  39688.  
  39689. Program Chairman:
  39690.  
  39691. Prof. Dr. Ali Riza Kaylan
  39692. Bogazici University, Dept.of Industrial Engineering, 80815 Bebek, Istanbul,
  39693. Turkey
  39694. Phone: 90.212.2631540/2072
  39695. Fax: 90.212.2651800
  39696. E-Mail: Kaylan@trboun.bitnet
  39697.  
  39698. Program Co-chairman:
  39699.  
  39700. Prof. Dr. Axel Lehmann
  39701. Universitaet der Bundeswehr, Munchen, Institut fur Technische Informatik,
  39702. Werner-Heisenberg-Weg 39, D 85577 Neubiberg, Germany.
  39703. Phone: 49.89.6004.2648/2654
  39704. Fax: 49.89.6004.3560
  39705. E-Mail: Lehmann@informatik.unibw-muenchen.de
  39706.  
  39707. Finance Chairman:
  39708.  
  39709. Rainer Rimane, University of Erlangen - Nurnberg
  39710.  
  39711. Organization Committee:
  39712.  
  39713. Ali Riza Kaylan, Yaman Barlas, Murat Draman, Levent Mollamustafaoglu, Tulin
  39714. Yazgac
  39715.  
  39716. International Program Committee (Preliminary):
  39717.  
  39718. O. Balci, USA
  39719. J. Banks, USA
  39720. G. Bolch, Germany
  39721. R. Crosbie, USA
  39722. B. Delaney, USA
  39723. M. S. Elzas, Netherlands
  39724. H. Erkut, Turkey
  39725. A. Eyler, Turkey
  39726. P. Fishwick, USA
  39727. E. Gelenbe, USA
  39728. A. Guasch, Spain
  39729. M. Hitz, Austria
  39730. R. Huntsinger, USA
  39731. G. Iazeolla, Italy
  39732. K. Irmscher, Germany
  39733. K. Juslin, Finland
  39734. A. Javor, Hungary
  39735. E. Kerckhoffs, Netherlands
  39736. J. Kleijnen, Netherlands
  39737. M. Kotva, Czech Rep.
  39738. M. Koksalan, Turkey
  39739. M. L. Pagdett, USA
  39740. M. Pior, Germany
  39741. R. Reddy, USA
  39742. S. Reddy, USA
  39743. B. Schmidt, Germany
  39744. S. Sevinc, Australia
  39745. H. Szczerbicka, Germany
  39746. S. Tabaka,  Japan
  39747. O. Tanir, Canada
  39748. G. Vansteenkiste, Belgium
  39749. M. Wildberger, USA
  39750. S. Xia, UK
  39751. R. Zobel, UK
  39752.  
  39753. CONFERENCE INFORMATION
  39754.  
  39755. The ESS series (organized by SCS, the Society for Computer Simulation
  39756. International) is now in its fifth year. SCS is an international non-profit
  39757. organization founded in 1952. On a yearly basis SCS organizes 6 Simulation
  39758. Conferences worldwide, cooperates in 2 others, and publishes the monthly
  39759. magazine Simulation, a quarterly Transactions, and books. For more information,
  39760. please tick the appropriate box on the reply card.
  39761.  
  39762. During ESS'94 the following events will be presented besides the scientific
  39763. program:
  39764.  
  39765. Professional Seminars
  39766.  
  39767. The first day of the conference is dedicated to professional seminars, which
  39768. will be presented for those interested participants to expose the state-of-art
  39769. overview of each of the five main themes of this conference. Participation fee
  39770. is included in the conference registration fee. If you have suggestions for
  39771. other advanced tutorial topics, please contact one of the program chairmen.
  39772.  
  39773. Exhibits
  39774.  
  39775. An exhibition will be held in the central hall where all participants meet for
  39776. coffee and tea. There will be a special exhibition section for universities and
  39777. non-profit organizations, and a special section for publishers and commercial
  39778. stands. If you would like to participate in the exhibition, please contact the
  39779. SCS European Office.
  39780.  
  39781. Vendor Sessions, Demonstrations and Video Presentations
  39782.  
  39783. For demonstrations or video sessions, please contact SCS International at the
  39784. European Office. Special sessions within the scientific program will be set up
  39785. for vendor presentations.
  39786.  
  39787. Other Organized Meetings
  39788.  
  39789. Several User Group meetings for simulation languages and tools will be
  39790. organized on Monday. It is possible to have other meetings on Monday as well.
  39791. If you would like to arrange a meeting, please contact the Conference Chairman.
  39792. We will be happy to provide a meeting room and other necessary equipment.
  39793.  
  39794. VENUE
  39795.  
  39796. Istanbul, the only city in the world built on two continents, stands on the
  39797. shores of the Istanbul Bogazi (Bosphorus) where the waters of the Black Sea
  39798. mingle with those of the Sea of Marmara and the Golden Horn. Here on this
  39799. splendid site, Istanbul guards the precious relics of three empires of which
  39800. she has been the capital; a unique link between East and West, past and
  39801. present. Istanbul has infinite variety: museums, ancient churches, palaces,
  39802. great mosques, bazaars and the Bosphorus. However long you stay, just a few
  39803. days or longer, your time will be wonderfully filled in this unforgettable city.
  39804.  
  39805. Bogazici  University, which will host ESS'94 has its origins in Robert College,
  39806. first American College founded outside of the United States in 1863. It has a
  39807. well deserved reputation for academic excellence and accordingly attracts
  39808. students from among the best and brightest in Turkey. The University is
  39809. composed of four faculties, six institutes (offering graduate programs), and
  39810. two other schools.
  39811.  
  39812. The conference location is Istanbul Dedeman, an international five star hotel,
  39813. which is located in the center of the city with a spectacular view of the
  39814. Bosphorus. It is in a very close district to the most of the historical places
  39815. as well as to the business center. For the conference participants the single
  39816. room special rate is 65 US dollars.
  39817.  
  39818. SCIENTIFIC PROGRAM
  39819.  
  39820. The 1994 SCS European Simulation Symposium is structured around the following
  39821. five major themes. A parallel track will be devoted to each of the five topics.
  39822. The conference language is English.
  39823.  
  39824. * Advances in Simulation Methodology and Practices, e.g.:
  39825.         - Advanced Modelling, Experimentation, and Output Analysis and Display
  39826.         - Object-Oriented System Design and Simulation
  39827.         - Optimization of Simulation Models
  39828.         - Validation and Verification Techniques
  39829.         - Mixed Methodology Modelling
  39830.         - Special Simulation Tools and Environments
  39831.  
  39832. * Artificial Intelligence in Simulation, e.g.:
  39833.         - Knowledge-based Simulation Environments and Knowledge Bases
  39834.         - Knowledge-based System Applications
  39835.         - Reliability Assurance through Knowledge-based Techniques
  39836.         - Mixed Qualitative and Quantitative Simulation
  39837.         - Neural Networks in Simulation
  39838.  
  39839. * Innovative Simulation Technologies:
  39840.         - Virtual Reality
  39841.         - Multimedia Applications
  39842.  
  39843. * Industrial Simulation, e.g. Simulation in:
  39844.         - Design and Manufacturing, CAD, CIM
  39845.         - Process Control
  39846.         - Robotics and Automation
  39847.         - Concurrent Engineering, Scheduling
  39848.  
  39849. * Computer and Telecommunication Systems, e.g.:
  39850.         - Circuit Simulation, Fault Simulation
  39851.         - Computer Systems
  39852.         - Telecommunication Devices and Systems
  39853.         - Networks
  39854.  
  39855. INVITED SPEAKERS
  39856.  
  39857. Focusing on the main tracks of the conference, invited speakers will give
  39858. special in-depth presentations in plenary sessions, which will be included
  39859. in the proceedings of the conference.
  39860.  
  39861. BEST PAPER AWARDS
  39862.  
  39863. The 1994 European Simulation Symposium will award the best five papers, one in
  39864. each of the five tracks. From these five papers, the best overall paper of the
  39865. conference will be chosen. The awarded papers will be published in an
  39866. International Journal, if necessary after incorporating modifications in the
  39867. paper.
  39868.  
  39869. DEADLINES AND REQUIREMENTS
  39870.  
  39871. Extended abstracts (300 words, 2-3 pages for full and 150 words, 1 page for
  39872. short papers typewritten without drawings and tables) are due to arrive in
  39873. QUADRUPLICATE at the office of Ali Riza Kaylan, at the Industrial Engineering
  39874. Department of Bogazici University, TURKEY before  March 1, 1994.
  39875.  
  39876. Only original papers, written in English, which have not previously been
  39877. published elsewhere will be accepted. In case you want to organize a panel
  39878. discussion, please contact the program chairmen.
  39879.  
  39880. Authors are expected to register early (at a reduced fee) and to attend the
  39881. conference at their own expense to present the accepted papers. If early
  39882. registration and payment are not made, the paper will not be published in the
  39883. conference proceedings. In the case of multi-authors, one author should be
  39884. identified as the person who will act as correspondent for the paper.
  39885.  
  39886. Abstracts will be reviewed by 3 members of the International Program Committee
  39887. for full papers and one member for short papers. Notification of acceptance or
  39888. rejection will be sent by April  30, 1994.
  39889.  
  39890. An author kit with complete instruction for preparing a camera-ready copy for
  39891. the proceedings will be sent to authors of accepted abstracts. The camera-ready
  39892. copy of the papers must be in by July 15, 1994. Only the full papers, which
  39893. are expected to be 5-6 pages long, will be published in the conference
  39894. proceedings. In order to guarantee a high-quality conference, the full papers
  39895. will be reviewed as well, to check whether the suggestions of the program
  39896. committee have been incorporated. The nominees for the best paper awards will
  39897. be selected as well.
  39898.  
  39899. REGISTRATION FEE
  39900.  
  39901.                        Author           SCS members     Other participants
  39902.                        -----------------------------------------------
  39903.  
  39904. Registration before    BF 15000         BF 15000        BF 17000
  39905. August 31, 1994        (375 ECU)        (375 ECU)       (425 ECU)
  39906.  
  39907.  
  39908. Registration after     Preregistration  BF 17000        BF 20000
  39909. August 31, 1994        required         (425 ECU)       (500 ECU)
  39910. or at the conference
  39911.  
  39912.  
  39913. The registration fee includes one copy of the Conference Proceedings, attending
  39914. professional seminars, coffee and tea during the breaks, all lunches, a welcome
  39915. cocktail and the conference dinner.
  39916.  
  39917. CORRESPONDENCE ADDRESS
  39918.  
  39919. Philippe Geril
  39920. The Society for Computer Simulation, European Simulation Office, University of
  39921. Ghent Coupure Links 653, B-9000 Ghent, Belgium.
  39922. Phone (Office): 32.9.233.77.90
  39923. Phone (Home): 32.59.800.804
  39924. Fax (Office): 32.9.223.49.41
  39925. E-Mail: Philippe.Geril@rug.ac.be
  39926.  
  39927. REPLY CARD
  39928.  
  39929. Family Name:
  39930. First Name:
  39931. Occupation and/or Title:
  39932. Affiliation:
  39933. Mailing Address:
  39934.  
  39935. Zip:
  39936. City:
  39937. Country:
  39938. Telephone:
  39939. Fax:
  39940. E-mail:
  39941.  
  39942. Yes, I intend to attend the European Simulation Symposium ESS'94:
  39943. o Proposing a paper
  39944. o Proposing a panel discussion
  39945. o Participating a vendor session
  39946. o Contributing to the exhibition
  39947. o Without presenting a paper
  39948.  
  39949. The provisional title of my paper / poster / exhibited tool is:
  39950.  
  39951.  
  39952.  
  39953.  
  39954. With the following topics:
  39955.  
  39956.  
  39957.  
  39958.  
  39959.  
  39960.  
  39961. The paper belongs to the category (please tick one):
  39962. o Advances in Simulation Methodology  and Practices
  39963. o Artificial Intelligence in Simulation
  39964. o Innovative Simulation Technologies
  39965. o Industrial Simulation
  39966. o Computer and Telecommunication Systems
  39967.  
  39968. The paper will be submitted as a:
  39969. o Full paper
  39970. o Short Paper
  39971. o Poster session
  39972. o Demonstration
  39973.  
  39974. Other colleague(s) interested in the topics of the conference is/are:
  39975.  
  39976. Name:
  39977. Address:
  39978.  
  39979.  
  39980. Name:
  39981. Address:
  39982.  
  39983.  
  39984. If you would like to receive more information about SCS and its activities,
  39985. please tick the following box:
  39986. o YES, I would to know more about SCS.
  39987.  
  39988. Please mail this card immediately to:
  39989. Philippe Geril, The Society for Computer Simulation, European Simulation Office
  39990. University of Ghent, Coupure Links 653, B-9000 Ghent, Belgium.
  39991.  =============================================================================
  39992.   Prof.Dr. Ali R. Kaylan         Director of Computer Center
  39993.   Bogazici University            e-mail: Kaylan@Trboun.Bitnet
  39994.   Dept. of Industrial Eng'g.     fax-no: (90-1)265 63 57 or (90-1)265 93 62
  39995.   Bebek 80815                    phone: (90-1)265 93 62
  39996.   Istanbul, TURKIYE              phone: (90-1)263 15 40 ext. 1445,1727,1407
  39997.  =============================================================================
  39998.  
  39999. Newsgroups: news.announce.conferences,comp.arch,comp.sys.super
  40000. Path: aoi!nakasima
  40001. From: nakasima@kuis.kyoto-u.ac.jp (Hiroshi Nakashima)
  40002. Subject: Re: CFP: 8th ACM International Conference on Supercomputing (ICS'94)
  40003. In-Reply-To: cdp@sp95.csrd.uiuc.edu's message of Mon, 29 Nov 1993 19:18:41 GMT
  40004. Sender: news@kuis.kyoto-u.ac.jp
  40005. Nntp-Posting-Host: aoi.kuis.kyoto-u.ac.jp
  40006. Reply-To: nakasima@kuis.kyoto-u.ac.jp
  40007. Organization: Dept. of Info. Sci., Kyoto Univ., JAPAN
  40008. References: <1993Nov29.191841.23054@sparky.sterling.com>
  40009. Date: Tue, 30 Nov 1993 01:25:38 GMT
  40010. Apparently-To: comp-parallel@uunet.uu.net
  40011.  
  40012. In article <1993Nov29.191841.23054@sparky.sterling.com> cdp@sp95.csrd.uiuc.edu (Constantine Polychronopoulos) writes:
  40013.  
  40014. >      8th ACM International Conference on Supercomputing
  40015. >      ==================================================
  40016. >
  40017. >          Manchester, England, July 11-15, 1994
  40018. >          =====================================
  40019. > :
  40020. > :
  40021. >
  40022. >     Architecture -- Professor Shinji Tomita, Department of Information
  40023. >     Science, Kyoto University, Yoshida-hon-machi, Kyoto, Japan, T606.
  40024. >     tomita@kuis.kyoto-u.ac.jp. +81-75-753-5393.
  40025.  
  40026. We would like to ask you authors to send your papers on architectural
  40027. topics NOT TO THE ADDRESS ABOVE, BUT TO:
  40028.  
  40029.     ics94arc@kuis.kyoto-u.ac.jp
  40030.  
  40031. so that we can pick up submission mails easily.
  40032.  
  40033. We also ask you to attach information for contact to PS manuscript,
  40034. preferably in the enclosed format.
  40035.  
  40036. Best Regards,
  40037.  
  40038. Prof. Shinji Tomita            Prof. Hiroshi Nakashima
  40039. Vice Program Chair (Architecture)    Dept. of Information Science
  40040. Dept. of Information Science        Kyoto University
  40041. Kyoto University
  40042. ---
  40043. % Fill the following and attach it to PS manuscript, and send them
  40044. % together to ics94arc@kuis.kyoto-u.ac.jp
  40045. %
  40046. \title{}        % title of the paper
  40047. \authors{}{}        % author's name and affiliation
  40048. %            % if two or more authors, duplicate this entry like;
  40049. %            % \authors{1st author's name}{1st author's affi.}
  40050. %            % \authors{2nd author's name}{1st author's affi.}
  40051. %            %    :
  40052. %            % \authors{n-th author's name}{n-th author's affi.}
  40053. \name{}            % name of the person for further contact
  40054. \zip{}            % zip code and/or country name
  40055. \address{}        % surface mail address
  40056. \organization{}        % organization name
  40057. \section{}        % section name
  40058. \tel{}            % phone number
  40059. \fax{}            % facsimile number
  40060. \email{}        % e-mail address
  40061. %
  40062. % The following is an example
  40063. % \title{The Architecture of a Massively Parallel Computer}
  40064. % \authors{Shinji Tomita}{Kyoto Univ.}
  40065. % \authors{Hiroshi Nakashima}{Kyoto Univ.}
  40066. % \name{Shinji Tomita}
  40067. % \zip{606-01, JAPAN}
  40068. % \address{Yoshida Hon-Machi, Sakyou-Ku, Kyoto}
  40069. % \organization{Kyoto University}
  40070. % \section{Dept. of Information Science}
  40071. % \tel{+81-75-753-5373}
  40072. % \fax{+81-75-753-5379}
  40073. % \email{tomita@kuis.kyoto-u.ac.jp}
  40074.  
  40075. Date: Mon, 29 Nov 93 22:15:00 -0500
  40076. From: news@njitgw.njit.edu (USENET News System)
  40077. To: comp-parallel@rutgers.edu
  40078.  
  40079. Newsgroups: comp.arch,comp.sys.dec,comp.sys.intel
  40080. Path: hertz.njit.edu!njl5453
  40081. From: njl5453@hertz.njit.edu (Nitin Lad  ee)
  40082. Subject: Cray T3D system...??..
  40083. Message-ID: <1993Nov30.031453.10522@njitgw.njit.edu>
  40084. Sender: news@njit.edu
  40085. Nntp-Posting-Host: hertz.njit.edu
  40086. Organization: New Jersey Institute of Technology, Newark, New Jersey
  40087. Date: Tue, 30 Nov 1993 03:14:53 GMT
  40088.  
  40089.  
  40090.     Does anyone know where I can find more detail
  40091.     info on the new CRAY T3D system development effort?
  40092.  
  40093.     I know that it is Alpha processor based supercomputer
  40094.     in various # processors and configurations.
  40095.  
  40096.     I would very much appreciate any pointers to
  40097.     ref materials(mag., articles, etc.) talks about
  40098.     hw architecture and soft. supp. for the new sys.
  40099.  
  40100.  
  40101.     Please reply to:   njl5453@hertz.njit.edu
  40102.  
  40103.     Nitin
  40104.     Electrical Engineering
  40105.     N.J.I.T.
  40106.  
  40107.  
  40108. Approved: parallel@hubcap.clemson.edu
  40109. Follow-up: comp.parallel
  40110. Path: bounce-back
  40111. Newsgroups: comp.multimedia,comp.parallel
  40112. From: hawaii!lc@uunet.UU.NET (Laurent Censier)
  40113. Subject: **** MATISSE DBMS Presentation ****
  40114. Sender: hawaii!lc@uunet.UU.NET (Laurent Censier)
  40115. Organization: ADB, Inc.
  40116. Date: Wed, 1 Dec 1993 17:10:29 GMT
  40117. Apparently-To: uunet!comp-parallel
  40118.  
  40119.  
  40120.  --------------------------------------------------------------------
  40121. | MATISSE:  An Industrial Strength Object Database Management System |
  40122.  --------------------------------------------------------------------
  40123.  
  40124. I) MATISSE Technology
  40125.    ------------------
  40126.  
  40127. MATISSE is a new generation database management system which
  40128. combines advanced object oriented modeling capabilities with a mission
  40129. critical transactional technology.
  40130. It is designed to meet the needs of complex database applications which
  40131. require any, or all, of the following:  large volumes of complex,
  40132. inter-related, multi-typed information, fault tolerance, ensured data
  40133. consistency and integrity, high speed OLTP access, high through-put and
  40134. optimal performance, historical object management and intelligent modeling
  40135. of constraints.
  40136.  
  40137. MATISSE complies with the traditional paradigm, where the database
  40138. management system is the foundation of the information system, providing
  40139. common and concurrent data storage and retrieval capabilities to multiple
  40140. applications.  MATISSE supports heterogeneous client-server architectures. 
  40141. All its functionalities can be used regardless of the development environment
  40142. used to build the applications, whether it is object oriented or not. 
  40143. Depending on the users needs, MATISSE can be used according to the
  40144. two state-of-the-art database paradigms:  the C/C++ API allows the user to
  40145. access MATISSE as a highly flexible language independent object oriented
  40146. database, MATISSE SQL provides a view of MATISSE as an extension of a relational
  40147. model.
  40148.  
  40149. The predecessor of MATISSE was G-BASE to which major enhancements were made.
  40150.  
  40151. II) The Company
  40152.     -----------
  40153.  
  40154. ADB is the fully-owned US subsidiary of a French Software Publisher dedicated
  40155. to develop, market, and support a new generation database management system,
  40156. MATISSE.  ADB also provides consulting and services assisting its customers
  40157. and partners in the use of the MATISSE technology. 
  40158.  
  40159.  
  40160. III) MATISSE Features
  40161.      ----------------
  40162.  
  40163.     Performance
  40164.     -----------
  40165.         -  Symmetric, Fine Grain, Multi-Threaded Architecture
  40166.         -  Parallel and Asynchronous Disk I/O
  40167.         -  Automatic Disk Optimization through Dynamic Clustering
  40168.         -  High Speed OLTP Environment
  40169.  
  40170.     Reliability
  40171.     -----------
  40172.         -  24 Hour - Mission Critical Operation
  40173.         -  Media Fault Tolerant (Object Replication)
  40174.         -  Transparent On-line Recovery
  40175.         -  Several Months of Extensive and Demanding Tests Prior
  40176.            to Each Release
  40177.  
  40178.     Database Administration
  40179.     -----------------------
  40180.         -  Full On-line Administration (No Down Time)
  40181.         -  On-line Incremental or Full Back-Up
  40182.         -  Dynamically Increase Database Size -   On-line
  40183.         -  Full On-line Monitoring
  40184.  
  40185.     Data Management and Consistency
  40186.     -------------------------------
  40187.         -  Dynamic Schema Evolution
  40188.         -  Consistent Database Reads without Locking
  40189.         -  Historical Versioning, both Schema and Data Objects
  40190.         -  Built-in Enforced Referential Integrity
  40191.         -  Object Level Implicit or Explicit Locking
  40192.  
  40193.     Scalability
  40194.     -----------
  40195.         -  Hundreds of Concurrent On-line Users
  40196.         -  Hundreds of Gigabytes Per Database
  40197.         -  From Few Bytes to Four Gigabytes for Each Object
  40198.         -  Up to Four Giga-objects Per Database
  40199.  
  40200.     Object Model
  40201.     ------------
  40202.         -  Full Object Oriented Model
  40203.         -  User Extensible Object Meta-Schema
  40204.         -  Support for Complex, Highly Dynamic, Variable Sized Objects
  40205.         -  Multiple Inheritance
  40206.  
  40207.     Intelligent Objects
  40208.     -------------------
  40209.         -  Triggers at Object, Attribute, or at Relationship Level
  40210.         -  Consistency Rules at Object, Attribute, or at
  40211.            Relationship Level
  40212.         -  Customizable Intelligent Object Indexing
  40213.         -  Automatic Inverse Relationships
  40214.  
  40215.     Open Systems
  40216.     ------------
  40217.         -  Open C, C++ API
  40218.         -  Supports Any Commercial Development Tool and Language
  40219.         -  No Proprietary Tool Required
  40220.         -  Heterogeneous Cross Platform Client/Server Architecture
  40221.         -  SQL Query Mechanism, currently in Beta
  40222.  
  40223.  
  40224. IV) MATISSE Products and Services
  40225.     -----------------------------
  40226.  
  40227.     Product Suite
  40228.     -------------
  40229.         -  MATISSE Client Object Oriented Services Libraries (API)
  40230.         -  MATISSE Server Engine Libraries (API)
  40231.         -  MATISSE Server Engine
  40232.         -  MATISSE DB Administrator Tools
  40233.         -  MATISSE Object Editor
  40234.         -  MATISSE Object Browser
  40235.  
  40236.     Platforms Supported
  40237.     -------------------
  40238.         -  Sun Sparcstation - SunOS 4.1.3
  40239.         -  Sun Sparcstation - Solaris, Delivery Q2, 1994    
  40240.         -  VAX - VMS,  Server
  40241.         -  HP9000 - HP-UX, Delivery in Q1, 1994
  40242.         -  Windows NT Client, Delivery in Q1, 1994
  40243.         -  Windows 3.1 Client, Delivery in Q1, 1994
  40244.         -  KSR1 High Performance Parallel Architecture,
  40245.            Delivery Q1, 1994
  40246.  
  40247.     Services
  40248.     --------
  40249.         -  Product Training and Support
  40250.         -  Object-Oriented Database Consulting
  40251.         -  Object-Oriented Analysis and Design
  40252.  
  40253.  
  40254.  
  40255. For additional information on MATISSE, contact
  40256. ----------------------------------------------
  40257.  
  40258. In the UNITED STATES:
  40259. ADB, Inc.
  40260. 238 Broadway
  40261. Cambridge, MA  02139 - USA
  40262.  
  40263. Phone:  1 (617) 354-4220
  40264. Fax:    1 (617) 547-5420
  40265. Email:  info@adb.com
  40266.     dan@adb.com
  40267.  
  40268. In EUROPE:
  40269. ADB/Intellitic SA. 
  40270. 12/14, rue du Fort de Saint Cyr
  40271. Montigny le Bretonneux
  40272. 78182 Saint Quentin en Yvelines Cedex - FRANCE
  40273.  
  40274. Phone:  33 (1) 30 14 54 35
  40275. Fax:    33 (1) 30 14 54 40
  40276. Email:  pmo@intellitic.fr
  40277.  
  40278.  
  40279. In JAPAN:
  40280. ADB/Intellitic SA.
  40281. c/o SGN Co., LTD
  40282. Urban Toranomon Building - 1-16-4 Toranomon
  40283. Minato-Ku Tokyo 105 - JAPAN
  40284.  
  40285. Phone:  81 (3) 3593.34.31
  40286. Fax:    81 (3) 3593.34.32
  40287.  
  40288.  
  40289.  
  40290.  
  40291.  
  40292.  
  40293.  
  40294.  
  40295.  
  40296.  
  40297.  
  40298.  
  40299.  
  40300.  
  40301.  
  40302.  
  40303.  
  40304.  
  40305.  
  40306.  
  40307.  
  40308.  
  40309.  
  40310.  
  40311.  
  40312.  
  40313.  
  40314.  
  40315.  
  40316.  
  40317.  
  40318.  
  40319.  
  40320.  
  40321.  
  40322.  
  40323.  
  40324.  
  40325.  
  40326.  
  40327.  
  40328.  
  40329.  
  40330.  
  40331.  
  40332.  
  40333.  
  40334.  
  40335.  
  40336.  
  40337.  
  40338.  
  40339.  
  40340.  
  40341.  
  40342.  
  40343.  
  40344. Approved: parallel@hubcap.clemson.edu
  40345. Follow-up: comp.parallel
  40346. Path: bounce-back
  40347. Newsgroups: comp.parallel
  40348. Date: Thu, 2 Dec 1993 09:34:53 -0500
  40349. From: takis@wilcox.wellesley.edu (Takis Metaxas)
  40350. Subject: Tenure track position at Wellesley College
  40351.  
  40352.  
  40353.  
  40354.  
  40355.                             Wellesley College
  40356.                       Computer Science Department
  40357.  
  40358.                          TENURE TRACK POSITION
  40359.  
  40360.  
  40361. Wellesley College is seeking applicants for a tenure-track assistant 
  40362. professorship in computer science. Applicants should have a Ph.D. in 
  40363. computer science or be close to its completion. We especially encourage 
  40364. candidates in computer systems and architecture, but all areas of 
  40365. specialty will be considered.
  40366.  
  40367. Wellesley College is a private, liberal arts college for women that 
  40368. places heavy emphasis on excellence in teaching as well as research. 
  40369. The college offers both a major and a minor in computer science, and 
  40370. has a cross-registration program with M.I.T. that dramatically 
  40371. increases the resources and curricular options available to its 
  40372. faculty and students.
  40373.  
  40374. Wellesley College has a networked campus. Academic computers on the 
  40375. campus-wide network include a VAX cluster, SUN, DEC and IBM RISC 
  40376. workstations, and a Macintosh classroom that is dedicated to computer 
  40377. science instruction. In addition, Apple Macintosh and IBM PCs and 
  40378. compatibles are distributed around campus in microcomputer labs, 
  40379. faculty offices and research labs. Wellesley also has a high-speed 
  40380. connection to the Internet.
  40381.  
  40382. Located thirteen miles west of Boston near a high concentration 
  40383. of computer research institutions, Wellesley provides a unique 
  40384. combination of access to a major urban center and consulting 
  40385. opportunities while retaining a sense of the country by its 
  40386. 500-acre campus, lake and woodlands.
  40387.  
  40388. Candidates interested in this position should submit a curriculum 
  40389. vitae and arrange for three letters of recommendation to be sent to:
  40390.  
  40391.         Ellen C. Hildreth, Chair
  40392.         Department of Computer Science
  40393.         Wellesley College
  40394.         Wellesley, MA 02181
  40395.         ehildreth@lucy.wellesley.edu
  40396.         FAX: 617-283-3642
  40397.  
  40398. Wellesley College is an equal opportunity/affirmative action employer 
  40399. and welcomes applications from women and minority candidates.
  40400.  
  40401.  
  40402.  
  40403. Approved: parallel@hubcap.clemson.edu
  40404. Follow-up: comp.parallel
  40405. Path: bounce-back
  40406. Newsgroups: comp.parallel
  40407. From: ambaker@iastate.edu (Anthony M Baker)
  40408. Subject: ncube MFLOP rating
  40409. Keywords: fortran, ncube, mflop
  40410. Sender: news@news.iastate.edu (USENET News System)
  40411. Organization: Iowa State University, Ames IA
  40412. Date: Wed, 1 Dec 1993 19:41:15 GMT
  40413. Apparently-To: comp-parallel@beaver.cs.washington.edu
  40414.  
  40415. I need to get an MFLOP rating for a fortran code.  I already have the
  40416. timing information, but I'd rather not spend a week counting up the
  40417. floating point operations.  Does anyone know of a utility that does this
  40418. automatically?
  40419.  
  40420. Thanks for the help!
  40421. Anthony Baker
  40422.  
  40423. -- 
  40424. v~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~v
  40425. | Anthony Baker                              |
  40426. | Aerospace Engineering         ambaker@iastate.edu          |
  40427. | 112 Town Engineering           baker@tityus.scl.ameslab.gov |
  40428.  
  40429. Approved: parallel@hubcap.clemson.edu
  40430. Follow-up: comp.parallel
  40431. Path: bounce-back
  40432. Newsgroups: comp.parallel
  40433. From: Ashok Gupta <gupta@prl.philips.co.uk>
  40434. Date: Thu, 2 Dec 93 10:09:43 UTC
  40435. Subject: Announcement - General Purpose Parallel Computing
  40436.  
  40437.                         The  British  Computer  Society
  40438.                     Parallel  Processing  Specialist  Group
  40439.                                    (BCS PPSG)
  40440.  
  40441.                      General  Purpose  Parallel  Computing
  40442.  
  40443.  
  40444.            A One Day Open Meeting with Invited and Contributed Papers
  40445.  
  40446.             22 December 1993, University of Westminster, London, UK
  40447.  
  40448.  
  40449.                                Invited speakers :
  40450.  
  40451.                         Les Valiant, Harvard University
  40452.                    Bill McColl, PRG, University of Oxford, UK
  40453.                               David May, Inmos, UK
  40454.  
  40455.  
  40456. A key factor for the growth of parallel computing is the availability  of  port-
  40457. able  software.   To be portable, software must be written to a model of machine
  40458. performance with universal applicability. Software providers  must  be  able  to
  40459. provide  programs whose performance will scale with machine and application size
  40460. according to agreed principles.  This environment presupposes a model of  paral-
  40461. lel  performance, and one which will perform well for irregular as well as regu-
  40462. lar patterns of interaction.  Adoption of a common model by machine  architects,
  40463. algorithm  &  language  designers  and programmers is a precondition for general
  40464. purpose parallel computing.
  40465.  
  40466. Valiant's Bulk Synchronous Parallel (BSP) model provides a bridge between appli-
  40467. cation,  language  design and architecture for parallel computers. BSP is of the
  40468. same nature for parallel computing as the Von Neumann model  is  for  sequential
  40469. computing.   It  forms  the focus of a project for scalable performance parallel
  40470. architectures supporting architecture independent software. The  model  and  its
  40471. implications  for  hardware and software design will be described in invited and
  40472. contributed talks.
  40473.  
  40474.  
  40475.  
  40476. The PPSG, founded in 1986, exists to foster development  of  parallel  architec-
  40477. tures,  languages and applications & to disseminate information on parallel pro-
  40478. cessing. Membership is completely open; you do not have to be a  member  of  the
  40479. British  Computer  Society.  For further information about the group contact ei-
  40480. ther of the following :
  40481.  
  40482. Chair : Mr. A. Gupta                     Membership Secretary: Dr. N. Tucker
  40483. Philips Research Labs, Crossoak Lane,    Paradis Consultants, East Berriow,
  40484. Redhill, Surrey, RH1 5HA, UK             Berriow Bridge, North Hill, Nr. Launceston,
  40485. gupta@prl.philips.co.uk                  Cornwall, PL15 7NL, UK
  40486.  
  40487.  
  40488.           Please share this information and display this announcement
  40489.  
  40490.  
  40491.                         The  British  Computer  Society
  40492.                     Parallel  Processing  Specialist  Group
  40493.                                    (BCS PPSG)
  40494.  
  40495.                      General  Purpose  Parallel  Computing
  40496.  
  40497.                                22 December 1993,
  40498.                          Fyvie Hall, 309 Regent Street,
  40499.                      University of Westminster, London, UK
  40500.  
  40501.  
  40502. Provisional Programme
  40503.  
  40504. 9 am-10 am  Registration & Coffee
  40505.  
  40506.      L. Valiant,  Harvard University,
  40507.          "Title to be announced"
  40508.      W. McColl,  Oxford University,
  40509.          Programming models for General Purpose Parallel Computing
  40510.      A. Chin,  King's College,  London University,
  40511.          Locality of Reference in Bulk-Synchronous Parallel Computation
  40512.      P. Thannisch et al,  Edinburgh University,
  40513.          Exponential Processor Requirements for Optimal Schedules
  40514.          in Architecture with Locality
  40515.  
  40516.  Lunch
  40517.  
  40518.      D. May,  Inmos
  40519.          "Title to be announced"
  40520.      R. Miller,  Oxford University,
  40521.          A Library for Bulk Synchronous Parallel Programming
  40522.      C. Jesshope et al,  Surrey University,
  40523.          BSPC and the N-Computer
  40524.  
  40525. Tea/Coffee
  40526.  
  40527.      P. Dew et al,  Leeds University,
  40528.          Scalable Parallel Computing using the XPRAM model
  40529.      S. Turner et al,  Exeter University,
  40530.          Portability and Parallelism with `Lightweight P4'
  40531.      N. Kalentery et al,  University of Westminster,
  40532.          From BSP to a Virtual Von Neumann Machine
  40533.      R. Bisseling,  Utrecht University,
  40534.          Scientific Computing on Bulk Synchronous Parallel Architectures
  40535.      B. Thompson et al,  University College of Swansea,
  40536.          Equational Specification of Synchronous Concurrent Algorithms and 
  40537.          Architectures
  40538.  
  40539. 5.30 pm  Close
  40540.  
  40541.  
  40542.           Please share this information and display this announcement
  40543.  
  40544.  
  40545.  
  40546.        The British Computer Society Parallel Processing Specialist Group
  40547.  
  40548.  
  40549. Booking Form/Invoice                                  BCS VAT No. : 440-3490-76
  40550.  
  40551.  
  40552. Please reserve a place at the Conference on General Purpose Parallel Computing,
  40553. London, December 22 1993, for the individual(s) named below.
  40554.  
  40555.  
  40556. Name of delegate        BCS membership no.       Fee      VAT      Total
  40557.                          (if  applicable)
  40558. ___________________________________________________________________________
  40559.  
  40560. ___________________________________________________________________________
  40561.  
  40562. ___________________________________________________________________________
  40563.  
  40564.  
  40565. Cheques, in pounds sterling, should be made payable to "BCS Parallel Processing
  40566. Specialist Group".  Unfortunately credit card bookings cannot be accepted.
  40567.  
  40568.  
  40569. The delegate fees (including lunch, refreshments and proceedings) are 
  40570. (in pounds sterling) :
  40571.  
  40572.      Members of both PPSG & BCS:   55  +  9.62  VAT  =  64.62
  40573.      PPSG or BCS members:          70  +  12.25 VAT  =  82.25
  40574.      Non members:                  90  +  15.75 VAT  = 105.75
  40575.      Full-time students:           25  +   4.37 VAT  =  29.37
  40576.  
  40577. (Students should provide a letter of endorsement from their supervisor 
  40578. that also clearly details their institution)
  40579.  
  40580.  
  40581. Contact Address:    ___________________________________________
  40582.  
  40583.                     ___________________________________________
  40584.  
  40585.                     ___________________________________________
  40586.  
  40587. Email address:      _________________
  40588.  
  40589. Date: _________________    Day time telephone: ________________
  40590.  
  40591.  
  40592. Places are limited so please return this form as soon as possible to :
  40593.  
  40594.              Mrs C. Cunningham
  40595.              BCS PPSG
  40596.              2 Mildenhall Close, Lower Earley,
  40597.              Reading, RG6 3AT, UK
  40598.              (Phone 0734 665570)
  40599.  
  40600.  
  40601. Approved: parallel@hubcap.clemson.edu
  40602. Follow-up: comp.parallel
  40603. Path: bounce-back
  40604. Newsgroups: comp.parallel
  40605. From: jonathan@CS.HUJI.AC.IL (Jonathan Maresky)
  40606. Subject: Financial applications on Supercomputers
  40607. Date: 2 Dec 1993 14:00:15 GMT
  40608. Organization: Hebrew University of Jerusalem
  40609. Nntp-Posting-Host: mangal.cs.huji.ac.il
  40610.  
  40611. Hi all,
  40612. I know that this is the wrong place: either reply or send 
  40613. this somewhere else...
  40614.  
  40615. I'm looking for financial simulations on supercomputers,
  40616. more specifically market predictions (stock, currency, futures,
  40617. I'm not fussy).
  40618. It's for an impending seminar and so far I've mostly drawn
  40619. blanks. 
  40620. In fact it could be any computationally intensive 
  40621. financial simulation, not necessarily on a supercomputer.
  40622.  
  40623. Please mail with ideas, references, etc.
  40624. Thanks in advance,
  40625.  
  40626. Jonathan Maresky
  40627. Institute of Computer Science
  40628.  
  40629. Approved: parallel@hubcap.clemson.edu
  40630. Follow-up: comp.parallel
  40631. Path: bounce-back
  40632. Newsgroups: comp.sys.super,news.announce.conferences,ch.general,comp.parallel
  40633. From: rehmann@cscs.ch (Rene M. Rehmann)
  40634. Subject: EXTENDED DEADLINE: IFIP WG10.3 conference
  40635. Message-ID: <1993Dec2.163300.17315@cscs.ch>
  40636. Keywords: massive parallelism, programming, tools, working conference, CFP
  40637. Sender: usenet@cscs.ch (NEWS Manager)
  40638. Nntp-Posting-Host: vevey.cscs.ch
  40639. Reply-To: rehmann@cscs.ch
  40640. Organization: Centro Svizzero di Calcolo Scientifico (CSCS), Manno, Switzerland
  40641. Date: Thu, 2 Dec 1993 16:33:00 GMT
  40642.  
  40643.  
  40644.                                CALL FOR PAPERS
  40645.                               EXTENDED DEADLINE
  40646.  
  40647.                                  IFIP WG10.3
  40648.                             WORKING CONFERENCE ON
  40649.                          PROGRAMMING ENVIRONMENTS FOR
  40650.                     MASSIVELY PARALLEL DISTRIBUTED SYSTEMS
  40651.  
  40652.                              April 25 - 30, 1994
  40653.                       Monte Verita, Ascona, Switzerland
  40654.                 
  40655.  
  40656. Massively parallel systems with distributed resources will play a very
  40657. important role for the future of high performance computing.  One of
  40658. the current obstacles of these systems is their difficult programming.
  40659. The proposed conference will bring together active researchers who are
  40660. working on ways how to help programmers to exploit the performance
  40661. potential of massively parallel systems. The working conference will
  40662. consist of sessions for full and short papers, interleaved with poster
  40663. and demonstration sessions.
  40664.  
  40665. The Conference will be held April 25 - 30, 1994 at the Centro Stefano
  40666. Franscini, located in the hills above Ascona at Lago Maggiore, in the
  40667. southern part of Switzerland.  It is organized by the Swiss Scientific
  40668. Computing Center CSCS ETH Zurich. The conference is the forthcoming
  40669. event of the working group WG 10.3 of the International Federation for
  40670. Information Processing (IFIP) on Programming Environments for Parallel
  40671. Computing.  The conference succeeds the 1992 Edinburgh conference on
  40672. Programming Environments for Parallel Computing.
  40673.  
  40674.  
  40675. SUBMISSION OF PAPERS
  40676.  
  40677. Submission of papers is invited in the following areas:
  40678.  
  40679.         -- Programming models for parallel distributed computing
  40680.         -- Computational models for parallel distributed computing
  40681.         -- Program transformation tools
  40682.         -- Concepts and tools for the design of parallel distributed
  40683.            algorithms
  40684.         -- Reusability in parallel distributed programming
  40685.         -- Concepts and tools for debugging massively parallel
  40686.            systems (100+ processing nodes)
  40687.         -- Concepts and tools for performance monitoring of massively
  40688.            parallel systems (100+ processing nodes)
  40689.         -- Tools for application development on massively parallel
  40690.            systems
  40691.         -- Support for computational scientists: what do they really need ?
  40692.         -- Application libraries (e.g., BLAS, etc.) for parallel distributed
  40693.            systems: what do they really offer ?
  40694.         -- Problem solving environments for parallel distributed programming
  40695.  
  40696.  
  40697. Authors are invited to submit complete, original, papers reflecting
  40698. their current research results. All submitted papers will be refereed
  40699. for quality and originality. The program committee reserves the right
  40700. to accept a submission as a long, short, or poster presentation paper.
  40701.  
  40702. Manuscripts should be double spaced, should include an abstract, and
  40703. should be limited to 5000 words (20 double spaced pages); The contact
  40704. authors are requested to list e-mail addresses if available.  Fax or
  40705. electronic submissions will not be considered.
  40706.  
  40707. Please submit 5 copies of the complete paper to the following address:
  40708.  
  40709. PD Dr. Karsten M. Decker
  40710. IFIP 94
  40711. CSCS-ETH Zurich
  40712. Via Cantonale
  40713. CH-6928 Manno
  40714. Switzerland
  40715.  
  40716.  
  40717. IMPORTANT DATES
  40718.  
  40719. Deadline for submission:     December 17, 1993
  40720. Notification of acceptance:  February 15, 1994
  40721. Final versions:              March    15, 1994
  40722.  
  40723.  
  40724. CONFERENCE CHAIR
  40725.  
  40726. Karsten M. Decker
  40727. CSCS-ETH Zurich
  40728. Via Cantonale
  40729. CH-6928 Manno
  40730. Switzerland
  40731. phone:  +41 (91) 50 8233
  40732. fax:    +41 (91) 50 6711
  40733. e-mail: decker@serd.cscs.ch
  40734.  
  40735.  
  40736. ORGANIZATION COMMITTEE CHAIR
  40737.  
  40738. Rene M. Rehmann
  40739. CSCS-ETH Zurich
  40740. Via Cantonale
  40741. CH-6928 Manno
  40742. Switzerland
  40743. phone:  +41 (91) 50 8234
  40744. fax:    +41 (91) 50 6711
  40745. e-mail: rehmann@serd.cscs.ch
  40746.  
  40747.  
  40748. PROGRAM COMMITTEE
  40749.  
  40750. Francoise Andre, IRISA, France
  40751. Thomas Bemmerl, Intel Corporation, Germany
  40752. Arndt Bode, Technical University Muenchen, Germany
  40753. Helmar Burkhart, University Basel, Switzerland
  40754. Lyndon J. Clarke, University of Edinburgh, UK
  40755. Michel Cosnard, Ecole Normale Superieure de Lyon, France
  40756. Karsten M. Decker, CSCS-ETH Zurich, Switzerland
  40757. Thomas Fahringer, University of Vienna, Austria
  40758. Claude Girault, University P.et M. Curie Paris, France
  40759. Anthony J. G. Hey, University of Southhampton, UK
  40760. Roland N. Ibbett, University of Edinburgh, UK
  40761. Nobuhiko Koike, NEC Corporation, Japan
  40762. Peter B. Ladkin, University of Stirling, UK
  40763. Juerg Nievergelt, ETH Zurich, Switzerland
  40764. Edwin Paalvast, TNO-TPD, The Netherlands
  40765. Gerard Reijns, Delft University of Technology, The Netherlands
  40766. Eugen Schenfeld, NEC Research Institute, USA
  40767. Clemens-August Thole, GMD, Germany
  40768. Owen Thomas, Meiko, UK
  40769. Marco Vanneschi, University of Pisa, Italy
  40770. Francis Wray, Cambridge, UK
  40771.  
  40772.  
  40773. MONTE VERITA, ASCONA, SWITZERLAND
  40774.  
  40775. Centro Stefano Franscini, Monte Verita, located in the scenic hills
  40776. above Ascona, with a beautiful view on Lago Maggiore, has excellent
  40777. conference and housing facilities for about sixty participants.  Monte
  40778. Verita enjoys a sub-alpine/mediterranean climate with mean temperatures
  40779. between 15 and 18 C in April.
  40780.  
  40781. The closest airport to Centro Stefano Franscini is Lugano-Agno which is
  40782. connected to Zurich, Geneva and Basle and many other cities in Europe
  40783. by air. Centro Stefano Franscini can also be reached conveniently by
  40784. train from any of the three major airports in Switzerland to Locarno by
  40785. a few hours scenic trans-alpine train ride. It can also be reached from
  40786. Milano in less than three hours.
  40787.  
  40788. For more information, send email to ifip94@cscs.ch
  40789.  
  40790. Karsten M. Decker and Rene M. Rehmann
  40791.  
  40792. ---
  40793. Rene M. Rehmann                                 phone:   +41 (91) 50 8234
  40794. Section of Research and Development (SeRD)      fax  :   +41 (91) 50 6711
  40795. Swiss Scientific Computing Center CSCS          email:   rehmann@cscs.ch
  40796. Via Cantonale, CH-6928 Manno, Switzerland
  40797.  
  40798.  
  40799.  
  40800.  
  40801.  
  40802. Approved: parallel@hubcap.clemson.edu
  40803. Follow-up: comp.parallel
  40804. Path: bounce-back
  40805. Newsgroups: comp.parallel
  40806. From: yates@rafael.llnl.gov (Kim Yates)
  40807. Subject: I/O on parallel machines
  40808. Date: 2 Dec 1993 18:01:56 GMT
  40809. Organization: Lawrence Livermore National Laboratory
  40810. Nntp-Posting-Host: rafael.llnl.gov
  40811.  
  40812.  
  40813. Are you satisfied with the performance and usability of
  40814. I/O on parallel computers?
  40815.  
  40816. I'm a researcher at Livermore
  40817. rather loosely affiliated with the National Storage Laboratory here,
  40818. and I'm trying to evaluate the current state of the art.
  40819. I'm interested in all aspects of parallel I/O:
  40820. hardware, software, performance, programmability, portability,
  40821. you name it!
  40822.  
  40823. If you have an I/O intensive application
  40824. running on any sort of parallel computer,
  40825. I'd like to hear about your experiences, good or bad.
  40826. Even short, one-or-two sentence responses would be welcome.
  40827. Of course, more information is better,
  40828. including the relevant characteristics of your system and application,
  40829. and a description of any problems encountered.
  40830.  
  40831. Thanks in advance.
  40832.  
  40833. Robert Kim Yates
  40834. rkyates@llnl.gov
  40835. Computing Research Group
  40836. Lawrence Livermore National Laboratory
  40837.  
  40838. Approved: parallel@hubcap.clemson.edu
  40839. Follow-up: comp.parallel
  40840. Path: bounce-back
  40841. Newsgroups: comp.parallel
  40842. From: tim@osiris.usi.utah.edu (Timothy Burns)
  40843. Subject: FAQ on message passing packages
  40844. Organization: Utah Supercomputing Institute, University of Utah
  40845.  
  40846.  
  40847. Unfortunatly, comp.parallel does not have an FAQ on rtfm.mit.edu.
  40848. I am therefore cluttering the net with my question:
  40849.  
  40850.     Does anyone where I can find the tcgmsg package?
  40851.  
  40852. I am also looking for a whole list of packages.
  40853.  
  40854. Thanks,
  40855. --
  40856. Tim Burns                email: tim@osiris.usi.utah.edu
  40857. USI, 85 SSB, Univ. of Utah, UT  84112      phone: (801)581-5172
  40858. +--------------------------------------------------------------------------+
  40859. | Even the most brilliant scientific discoveries will in time change and   |
  40860. | perhaps grow obsolete, as new scientific manifestations emerge.  But Art |
  40861. | is eternal; for it reveals the inner landscape which is the soul of man. |
  40862. +----------------------------------            --Martha Graham    ---------+
  40863.  
  40864.  
  40865. Approved: parallel@hubcap.clemson.edu
  40866. Follow-up: comp.parallel
  40867. Path: bounce-back
  40868. Newsgroups: comp.parallel
  40869. From: gbyrd@mcnc.org (Gregory T. Byrd)
  40870. Subject: Re: __shared on the KSR1 ?
  40871. Reply-To: gbyrd@mcnc.org (Gregory T. Byrd)
  40872. Organization: North Carolina Supercomputing Center
  40873. References:  <1993Dec1.163034.16101@hubcap.clemson.edu>
  40874.  
  40875. First, I don't understand why you would expect to see
  40876. different behavior from the three cases.  One thread
  40877. is writing to all of the arrays and then lots of threads
  40878. are reading them.  It's correct behavior for the printing
  40879. threads to read the same values.  What were you expecting?
  40880.  
  40881. Second, I believe you are confusing the notion of the
  40882. private variable c with the pointer that's stored there.
  40883. You do not use the variable c in any of the created
  40884. threads -- instead you pass them the contents of c, which
  40885. is a pointer.  All *data* on the KSR1 is shared (within
  40886. a process), even though not all *variables* are shared -- a
  40887. private variable refers to a section of the shared global
  40888. memory that is set aside for a particular thread.  Other
  40889. threads using that same variable name will refer to other
  40890. memory locations.  If I want to pass the address of my private
  40891. variable to other threads, that's perfectly fine.
  40892.  
  40893. So the initial thread declares a private variable c and 
  40894. then passes the contents of that variable, which is a global
  40895. pointer (there is no other kind), to the other threads.  
  40896. The other threads access the data pointed to by the initial
  40897. thread's "private" variable c.
  40898.  
  40899. If you malloc'ed and initialized the arrays with different
  40900. values in different threads, and then printed them, then
  40901. you should see some interesting differences.
  40902.  
  40903. ...Greg Byrd             MCNC / Information Technologies Division
  40904.    gbyrd@mcnc.org        3021 Cornwallis Road / P.O. Box 12889
  40905.    (919)248-1439         Research Triangle Park, NC  27709-2889
  40906.  
  40907. Approved: parallel@hubcap.clemson.edu
  40908. Follow-up: comp.parallel
  40909. Path: bounce-back
  40910. Newsgroups: comp.parallel
  40911. Precedence: first-class
  40912. From: w.purvis@daresbury.ac.uk (Bill Purvis, ext 3357)
  40913. Subject: Re: What is a good multicomputer disk block
  40914. Organization: Daresbury Laboratory, UK
  40915. References: <1993Dec1.163159.16579@hubcap.clemson.edu>
  40916. Reply-To: w.purvis@daresbury.ac.uk
  40917. Nntp-Posting-Host: dlse.dl.ac.uk
  40918.  
  40919. Dick Wilmot wrote:
  40920.  
  40921. >I heard that a study at a supercomputer site found that 30% of the files 
  40922. >were write-only (never actually read -- about as cold as you can get).
  40923.  
  40924. I can believe this, and this is a highly plausible explanation - most supercomputers
  40925. have a reputation (possible over-rated) of being unreliable. People who invest lots
  40926. of time/money in large computations learn that keeping checkpoint and log files
  40927. is a good way of insuring against system crashes. If the program runs to completion
  40928. you never bother looking at these files - simply delete them. If the system should
  40929. crash, you would read the log, and you may be able to save a lot of machine time
  40930. by re-starting the program from a checkpoint.
  40931.  
  40932. Since most major computations result in a small amount of data, while checkpoint
  40933. and logs can be enormous, it seems quite reasonable to me.
  40934.  
  40935.     Bill Purvis.
  40936.  
  40937.  
  40938.  
  40939. Approved: parallel@hubcap.clemson.edu
  40940. Follow-up: comp.parallel
  40941. Path: bounce-back
  40942. From: mmisra@slate.mines.colorado.edu (Manavendra Misra)
  40943. Subject: Dept Head Position: Colorado School of Mines
  40944. Message-ID: <1993Dec2.235434.61730@slate.mines.colorado.edu>
  40945. Sender: mmisra@slate.mines.colorado.edu (Manavendra Misra)
  40946. Date: Thu, 2 Dec 1993 23:54:34 GMT
  40947. Organization: Colorado School of Mines
  40948.  
  40949. >From spruess@slate.Mines.Colorado.EDU Thu Dec  2 16:27 MST 1993
  40950. Date: Thu, 2 Dec 1993 16:22:07 -0700
  40951. From: spruess@slate.Mines.Colorado.EDU (PRUESS STEVEN A)
  40952. To: mmisra@choma.Mines.Colorado.EDU
  40953. Content-Type: text
  40954. Content-Length: 2948
  40955. Status: RO
  40956. X-Lines: 58
  40957.  
  40958.  
  40959. FROM:        Steve Pruess (spruess@slate.mines.colorado.edu)
  40960.  
  40961. DATE:        November 12, 1993
  40962.  
  40963. SUBJECT:    Announcement of Department Head Opening
  40964.  
  40965. --------------------------------------------------------------------------
  40966.  
  40967.             Colorado School of Mines 
  40968.  
  40969. The Colorado School of Mines is seeking candidates for the position of 
  40970. Head of the Department of Mathematical and Computer Sciences.  This 
  40971. department offers BS, MS, and PhD degrees under the department title.  
  40972. With a faculty of 18 tenured and tenure track members, the department 
  40973. annually receives roughly a million dollars in grants;  116 undergraduate 
  40974. students and 70 graduate students are currently enrolled in our 
  40975. degree programs.  
  40976.  
  40977. The position requires a PhD in a mathematical or computer science.  
  40978. The applicant should have a sufficiently outstanding record of scholarly 
  40979. achievement and teaching experience to justify a tenured appointment at 
  40980. the Full Professor level.  In addition, the successful applicant must
  40981. have held an academic position for at least five years, and show evidence 
  40982. of demonstrable administrative ability, including visionary leadership, 
  40983. communication skills, and effective interaction and evaluation of personnel.  
  40984. The Head is expected to manage and direct the department's efforts in 
  40985. instruction and in scholarship, to continue and enhance its excellence in 
  40986. teaching and in research, to plan and oversee the development of its 
  40987. research activities and academic programs, and to represent the department 
  40988. on campus and externally.
  40989.  
  40990. The Colorado School of Mines is a state university, internationally renowned 
  40991. in the energy, materials, and resource fields, attracting outstanding 
  40992. students in a broad range of science and engineering disciplines.  The School 
  40993. of Mines is strongly committed to quality teaching and research. CSM provides 
  40994. an attractive campus environment, a collegial atmosphere, relatively small 
  40995. size (3000 students, about 30% in graduate programs), and an ideal location 
  40996. in the foothills of the Rocky Mountains 13 miles from downtown Denver.
  40997.  
  40998. Applications will be considered beginning February 15, 1994 and thereafter 
  40999. until the position is filled.  The applicant should provide a statement giving
  41000. administrative, pedagogical, and scholarly philosophy which should include
  41001. a discussion of advantages and disadvantages of programs combining both 
  41002. Computer Science and Mathematics, and how to reconcile research vs. teaching
  41003. conflicts.  This letter and a vita should be sent by postal mail to 
  41004.  
  41005.      Colorado School of Mines
  41006.      Department Head Search #94-01-31
  41007.      1500 Illinois Street
  41008.      Golden, CO  80401
  41009.  
  41010. The applicant must also arrange for five letters of reference to be mailed 
  41011. to the above address or sent by email to spruess@slate.mines.colorado.edu
  41012.  
  41013. CSM is an Affirmative Action/Equal Opportunity Employer.  Women and 
  41014. minorities are encouraged to apply.
  41015. ============================================================================
  41016.  
  41017.  
  41018. Approved: parallel@hubcap.clemson.edu
  41019. Follow-up: comp.parallel
  41020. Path: bounce-back
  41021. Newsgroups: comp.parallel
  41022. From: arvindk@dogmatix.CS.Berkeley.EDU (Arvind Krishnamurthy)
  41023. Newsgroups: comp.parallel
  41024. Subject: Split-C language for the CM5
  41025. Organization: University of California, Berkeley
  41026.  
  41027. This is to announce a Split-C release for the CM5. Here is a short
  41028. blurb on the language:
  41029.  
  41030. -------------
  41031.     
  41032. Split-C is a parallel extension of the C programming language primarily
  41033. intended for distributed memory multiprocessors.  It is designed around
  41034. two objectives.  The first is to capture certain useful elements of
  41035. shared memory, message passing, and data parallel programming in a
  41036. familiar context, while eliminating the primary deficiencies of each
  41037. paradigm.  The second is to provide efficient access to the underlying
  41038. machine, with no surprises.  (This is similar to the original
  41039. motivation for C---to provide a direct and obvious mapping from
  41040. high-level programming constructs to low-level machine instructions.)
  41041. Split-C does not try to obscure the inherent performance
  41042. characteristics of the machine through sophisticated transformations.
  41043. This combination of generality and transparency of the language give
  41044. the algorithm or library designer a concrete optimization target.
  41045.  
  41046. -------------
  41047.  
  41048. The newest version of Split-C (for the CM5) can always be found 
  41049. in ftp.cs.berkeley.edu:ucb/CASTLE/Split-C. The current version is
  41050. stable (has been in use for months) and easy to install. And if you
  41051. are just interested in the language, there is also a tutorial and a 
  41052. paper that describes the language in the same directory.
  41053.  
  41054. Please send bugs/questions/suggestions/feedback to
  41055. split-c@boing.cs.berkeley.edu.
  41056.  
  41057.                     - The Split-C team
  41058.  
  41059. Approved: parallel@hubcap.clemson.edu
  41060. Follow-up: comp.parallel
  41061. Path: bounce-back
  41062. Newsgroups: comp.parallel
  41063. From: huesler@ife.ee.ethz.ch (Rene Huesler)
  41064. Subject: ALLCACHE (KSR1)
  41065.  
  41066. Hi,
  41067.  
  41068. I'd like to get some inside information about the ALLCACHE from KSR1.
  41069. All I have found till now is the technical summary from KSR but the
  41070. information I got from there is not sufficent for me. I'd like to get
  41071. information about latency and how the ARD works.
  41072.  
  41073. Thanks for any inforamtion
  41074.  
  41075. Rene 
  41076.  
  41077.  
  41078.  
  41079. | Rene Huesler                           | << NEW PHONE NUMBER >>         |
  41080. | Swiss Federal Institute of Technology  | Phone:  (-41) 1 632 51 42      |
  41081. | Electronics Laboratory ETZ H63         |         or      632 66 53      |
  41082. | Gloriastrasse 35                       |   FAX:  (-41) 1 262 16 55      |
  41083. Approved: parallel@hubcap.clemson.edu
  41084. Follow-up: comp.parallel
  41085. Path: bounce-back
  41086. Newsgroups: comp.parallel
  41087. From: antonio@cs.tu-berlin.de (Antonio Maria Ferreira Pinto Leite)
  41088. Subject: American Express CM-5's
  41089. Date: 3 Dec 1993 08:26:50 GMT
  41090. Organization: Technical University of Berlin, Germany
  41091. Nntp-Posting-Host: marple.cs.tu-berlin.de
  41092. Mime-Version: 1.0
  41093. Content-Type: text/plain; charset=iso-8859-1
  41094. Content-Transfer-Encoding: 8bit
  41095.  
  41096. In the last Issue of the CACM W.D. Hillis and L.W. Tucker mention in
  41097. the article about the CM-5 that American Express is using 2 CM-5
  41098. machines  to process the customer database. I wonder if someone could
  41099. send me (or post here naturally) some information on this subject, for
  41100. instance  
  41101.  
  41102. - configuration
  41103.  
  41104. - cost
  41105.  
  41106. - description of the applications
  41107.  
  41108. Thank you in advance
  41109.  
  41110. Antonio 
  41111.  
  41112. ------------------------------------------------------------------------------
  41113. E-Mail: antonio@cs.tu-berlin.de
  41114. Snail-Mail: Antonio Pinto Leite
  41115.             Technische Universitaet Berlin
  41116.             Institut fuer Angewandte Informatik
  41117.             Franklinstr. 28/29
  41118.             Sekr. 5-13
  41119.             10587 Berlin
  41120.  
  41121.  
  41122. -- 
  41123. reply to: antonio@cs.tu-berlin.de
  41124.  
  41125. Approved: parallel@hubcap.clemson.edu
  41126. Follow-up: comp.parallel
  41127. Path: bounce-back
  41128. Newsgroups: comp.parallel
  41129. From: udo@uranus.informatik.rwth-aachen.de (Udo Brocker)
  41130. Subject: Programmiererstelle
  41131. Date: 3 Dec 1993 10:32:09 GMT
  41132. Organization: Rechnerbetrieb Informatik - RWTH Aachen
  41133. Nntp-Posting-Host: uranus.lfbs.rwth-aachen.de
  41134. Mime-Version: 1.0
  41135. Content-Type: text/plain; charset=US-ASCII
  41136. Content-Transfer-Encoding: 7bit
  41137.  
  41138.  
  41139. Programmierer/in gesucht
  41140. Lehrstuhl fuer Betriebssysteme der RWTH-Aachen
  41141.  
  41142. Gruppe fuer Betriebssystementwicklungen und betriebssystemnahe Programmierungen
  41143. -------------------------------------------------------------------------------
  41144. Der Lehrstuhl fuer Betriebssysteme beschaeftigt sich mit Entwicklung von
  41145. Betriebssoftware fuer Parallelrechner. Ausserdem sollen auch Anwendungen auf
  41146. diesen Maschinen portiert und weiterentwickelt werden. Dafuer werden drei 
  41147. Gruppen aufgebaut. 
  41148. Fuer die Gruppe der Betriebssystementwicklung und der Erstellung von 
  41149. betriebssystemnaher Software suchen wir einen Programmierer oder eine 
  41150. Programmiererin. Die Voraussetzungen fuer die Stelle sind entweder
  41151. ein Fachhochschulstudium der Informatik oder eine gleichwertige Ausbildung.
  41152. In Aachen ist das z.B. die Ausbildung zum mathematisch technischen 
  41153. Assistenten/in. 
  41154. Es sollten sehr gute Programmierkenntnisse in der Programmiersprache C 
  41155. vorhanden sein. Der intensive Umgang und Gebrauch des Betriebssystems
  41156. UNIX ist ebenfalls Voraussetzung. Wuenschenswert waeren Erfahrungen in der
  41157. Betriebssystemprogrammierung (z.B. Geraetetreiber). 
  41158. Die Verguetung erfolgt nach BAT IVb. Die gesetzlichen und sozialen Regelungen 
  41159. sind im BAT des oeffentlichen Dienstes festgelegt.
  41160.  
  41161. Interessierte Bewerber melden sich bitte mit einem kurzen Lebenslauf bei:
  41162.  
  41163.             Udo Brocker
  41164.             e-mail: udo@lfbs.rwth-aachen.de
  41165.             Tel.: +49-241-80-7635
  41166.  
  41167.   ----------
  41168.   |  _       Udo Brocker, Lehrstuhl fuer Betriebssysteme, RWTH Aachen
  41169.   |_|_`__    Kopernikusstr. 16, D-52056 Aachen,
  41170.     | |__)   Tel.: +49-241-807635; Fax: +49-241-806346
  41171.       |__)   email: udo@lfbs.rwth-aachen.de
  41172.  
  41173.  
  41174.  
  41175.  
  41176.  
  41177.  
  41178.  
  41179. Approved: parallel@hubcap.clemson.edu
  41180. Follow-up: comp.parallel
  41181. Path: bounce-back
  41182. Newsgroups: comp.parallel
  41183. From: bast@ph-cip.uni-koeln.de (Barthel Steckemetz)
  41184. Subject: Re: looking for a Travelling Salesman code for CM
  41185. Organization: CipLab - Institutes of Physics, University of Cologne, Germany
  41186.  
  41187. I am working on the travelling salesman problem
  41188. on a Parsytec 1024 transputer Parallel Computer.
  41189.  
  41190. I dont now wether this helps you.
  41191. Please mail me if you want.
  41192.  
  41193. Barthel Steckemetz
  41194.  
  41195. bs@parix2.mi.uni-koeln.de
  41196.  
  41197. To: comp-parallel@uunet.UU.NET
  41198. Date: Thu, 2 Dec 1993 17:33:08 +0100
  41199. From: NEWS Manager <news@cscs.ch>
  41200. Sender: news@cscs.ch
  41201.  
  41202. Newsgroups: comp.sys.super,news.announce.conferences,ch.general
  41203. Path: usenet
  41204. From: rehmann@cscs.ch (Rene M. Rehmann)
  41205. Subject: EXTENDED DEADLINE: IFIP WG10.3 conference
  41206. Message-ID: <1993Dec2.163300.17315@cscs.ch>
  41207. Keywords: massive parallelism, programming, tools, working conference, CFP
  41208. Sender: usenet@cscs.ch (NEWS Manager)
  41209. Nntp-Posting-Host: vevey.cscs.ch
  41210. Reply-To: rehmann@cscs.ch
  41211. Organization: Centro Svizzero di Calcolo Scientifico (CSCS), Manno, Switzerland
  41212. Date: Thu, 2 Dec 1993 16:33:00 GMT
  41213.  
  41214.  
  41215.                                CALL FOR PAPERS
  41216.                               EXTENDED DEADLINE
  41217.  
  41218.                                  IFIP WG10.3
  41219.                             WORKING CONFERENCE ON
  41220.                          PROGRAMMING ENVIRONMENTS FOR
  41221.                     MASSIVELY PARALLEL DISTRIBUTED SYSTEMS
  41222.  
  41223.                              April 25 - 30, 1994
  41224.                       Monte Verita, Ascona, Switzerland
  41225.                 
  41226.  
  41227. Massively parallel systems with distributed resources will play a very
  41228. important role for the future of high performance computing.  One of
  41229. the current obstacles of these systems is their difficult programming.
  41230. The proposed conference will bring together active researchers who are
  41231. working on ways how to help programmers to exploit the performance
  41232. potential of massively parallel systems. The working conference will
  41233. consist of sessions for full and short papers, interleaved with poster
  41234. and demonstration sessions.
  41235.  
  41236. The Conference will be held April 25 - 30, 1994 at the Centro Stefano
  41237. Franscini, located in the hills above Ascona at Lago Maggiore, in the
  41238. southern part of Switzerland.  It is organized by the Swiss Scientific
  41239. Computing Center CSCS ETH Zurich. The conference is the forthcoming
  41240. event of the working group WG 10.3 of the International Federation for
  41241. Information Processing (IFIP) on Programming Environments for Parallel
  41242. Computing.  The conference succeeds the 1992 Edinburgh conference on
  41243. Programming Environments for Parallel Computing.
  41244.  
  41245.  
  41246. SUBMISSION OF PAPERS
  41247.  
  41248. Submission of papers is invited in the following areas:
  41249.  
  41250.         -- Programming models for parallel distributed computing
  41251.         -- Computational models for parallel distributed computing
  41252.         -- Program transformation tools
  41253.         -- Concepts and tools for the design of parallel distributed
  41254.            algorithms
  41255.         -- Reusability in parallel distributed programming
  41256.         -- Concepts and tools for debugging massively parallel
  41257.            systems (100+ processing nodes)
  41258.         -- Concepts and tools for performance monitoring of massively
  41259.            parallel systems (100+ processing nodes)
  41260.         -- Tools for application development on massively parallel
  41261.            systems
  41262.         -- Support for computational scientists: what do they really need ?
  41263.         -- Application libraries (e.g., BLAS, etc.) for parallel distributed
  41264.            systems: what do they really offer ?
  41265.         -- Problem solving environments for parallel distributed programming
  41266.  
  41267.  
  41268. Authors are invited to submit complete, original, papers reflecting
  41269. their current research results. All submitted papers will be refereed
  41270. for quality and originality. The program committee reserves the right
  41271. to accept a submission as a long, short, or poster presentation paper.
  41272.  
  41273. Manuscripts should be double spaced, should include an abstract, and
  41274. should be limited to 5000 words (20 double spaced pages); The contact
  41275. authors are requested to list e-mail addresses if available.  Fax or
  41276. electronic submissions will not be considered.
  41277.  
  41278. Please submit 5 copies of the complete paper to the following address:
  41279.  
  41280. PD Dr. Karsten M. Decker
  41281. IFIP 94
  41282. CSCS-ETH Zurich
  41283. Via Cantonale
  41284. CH-6928 Manno
  41285. Switzerland
  41286.  
  41287.  
  41288. IMPORTANT DATES
  41289.  
  41290. Deadline for submission:     December 17, 1993
  41291. Notification of acceptance:  February 15, 1994
  41292. Final versions:              March    15, 1994
  41293.  
  41294.  
  41295. CONFERENCE CHAIR
  41296.  
  41297. Karsten M. Decker
  41298. CSCS-ETH Zurich
  41299. Via Cantonale
  41300. CH-6928 Manno
  41301. Switzerland
  41302. phone:  +41 (91) 50 8233
  41303. fax:    +41 (91) 50 6711
  41304. e-mail: decker@serd.cscs.ch
  41305.  
  41306.  
  41307. ORGANIZATION COMMITTEE CHAIR
  41308.  
  41309. Rene M. Rehmann
  41310. CSCS-ETH Zurich
  41311. Via Cantonale
  41312. CH-6928 Manno
  41313. Switzerland
  41314. phone:  +41 (91) 50 8234
  41315. fax:    +41 (91) 50 6711
  41316. e-mail: rehmann@serd.cscs.ch
  41317.  
  41318.  
  41319. PROGRAM COMMITTEE
  41320.  
  41321. Francoise Andre, IRISA, France
  41322. Thomas Bemmerl, Intel Corporation, Germany
  41323. Arndt Bode, Technical University Muenchen, Germany
  41324. Helmar Burkhart, University Basel, Switzerland
  41325. Lyndon J. Clarke, University of Edinburgh, UK
  41326. Michel Cosnard, Ecole Normale Superieure de Lyon, France
  41327. Karsten M. Decker, CSCS-ETH Zurich, Switzerland
  41328. Thomas Fahringer, University of Vienna, Austria
  41329. Claude Girault, University P.et M. Curie Paris, France
  41330. Anthony J. G. Hey, University of Southhampton, UK
  41331. Roland N. Ibbett, University of Edinburgh, UK
  41332. Nobuhiko Koike, NEC Corporation, Japan
  41333. Peter B. Ladkin, University of Stirling, UK
  41334. Juerg Nievergelt, ETH Zurich, Switzerland
  41335. Edwin Paalvast, TNO-TPD, The Netherlands
  41336. Gerard Reijns, Delft University of Technology, The Netherlands
  41337. Eugen Schenfeld, NEC Research Institute, USA
  41338. Clemens-August Thole, GMD, Germany
  41339. Owen Thomas, Meiko, UK
  41340. Marco Vanneschi, University of Pisa, Italy
  41341. Francis Wray, Cambridge, UK
  41342.  
  41343.  
  41344. MONTE VERITA, ASCONA, SWITZERLAND
  41345.  
  41346. Centro Stefano Franscini, Monte Verita, located in the scenic hills
  41347. above Ascona, with a beautiful view on Lago Maggiore, has excellent
  41348. conference and housing facilities for about sixty participants.  Monte
  41349. Verita enjoys a sub-alpine/mediterranean climate with mean temperatures
  41350. between 15 and 18 C in April.
  41351.  
  41352. The closest airport to Centro Stefano Franscini is Lugano-Agno which is
  41353. connected to Zurich, Geneva and Basle and many other cities in Europe
  41354. by air. Centro Stefano Franscini can also be reached conveniently by
  41355. train from any of the three major airports in Switzerland to Locarno by
  41356. a few hours scenic trans-alpine train ride. It can also be reached from
  41357. Milano in less than three hours.
  41358.  
  41359. For more information, send email to ifip94@cscs.ch
  41360.  
  41361. Karsten M. Decker and Rene M. Rehmann
  41362.  
  41363. ---
  41364. Rene M. Rehmann                                 phone:   +41 (91) 50 8234
  41365. Section of Research and Development (SeRD)      fax  :   +41 (91) 50 6711
  41366. Swiss Scientific Computing Center CSCS          email:   rehmann@cscs.ch
  41367. Via Cantonale, CH-6928 Manno, Switzerland
  41368.  
  41369.  
  41370.  
  41371.  
  41372.  
  41373. To: comp-parallel@uunet.UU.NET
  41374. Path: rafael.llnl.gov!yates
  41375. From: yates@rafael.llnl.gov (Kim Yates)
  41376. Newsgroups: comp.parallel,comp.arch.storage,comp.sys.super,sci.physics.research,sci.chem,sci.bio
  41377. Subject: I/O on parallel machines
  41378. Date: 2 Dec 1993 18:01:56 GMT
  41379. Organization: Lawrence Livermore National Laboratory
  41380. Nntp-Posting-Host: rafael.llnl.gov
  41381.  
  41382.  
  41383. Are you satisfied with the performance and usability of
  41384. I/O on parallel computers?
  41385.  
  41386. I'm a researcher at Livermore
  41387. rather loosely affiliated with the National Storage Laboratory here,
  41388. and I'm trying to evaluate the current state of the art.
  41389. I'm interested in all aspects of parallel I/O:
  41390. hardware, software, performance, programmability, portability,
  41391. you name it!
  41392.  
  41393. If you have an I/O intensive application
  41394. running on any sort of parallel computer,
  41395. I'd like to hear about your experiences, good or bad.
  41396. Even short, one-or-two sentence responses would be welcome.
  41397. Of course, more information is better,
  41398. including the relevant characteristics of your system and application,
  41399. and a description of any problems encountered.
  41400.  
  41401. Thanks in advance.
  41402.  
  41403. Robert Kim Yates
  41404. rkyates@llnl.gov
  41405. Computing Research Group
  41406. L-306
  41407. Lawrence Livermore National Laboratory
  41408. P.O. Box 808
  41409. Livermore, CA 94550
  41410.  
  41411. Approved: parallel@hubcap.clemson.edu
  41412. Follow-up: comp.parallel
  41413. Path: bounce-back
  41414. Newsgroups: comp.parallel
  41415. From: yates@rafael.llnl.gov (Kim Yates)
  41416. Subject: I/O on parallel machines
  41417. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  41418. Nntp-Posting-Host: rafael.llnl.gov
  41419. Organization: Lawrence Livermore National Laboratory
  41420. Date: 2 Dec 1993 18:01:56 GMT
  41421.  
  41422. Are you satisfied with the performance and usability of
  41423. I/O on parallel computers?
  41424.  
  41425. I'm a researcher at Livermore
  41426. rather loosely affiliated with the National Storage Laboratory here,
  41427. and I'm trying to evaluate the current state of the art.
  41428. I'm interested in all aspects of parallel I/O:
  41429. hardware, software, performance, programmability, portability,
  41430. you name it!
  41431.  
  41432. If you have an I/O intensive application
  41433. running on any sort of parallel computer,
  41434. I'd like to hear about your experiences, good or bad.
  41435. Even short, one-or-two sentence responses would be welcome.
  41436. Of course, more information is better,
  41437. including the relevant characteristics of your system and application,
  41438. and a description of any problems encountered.
  41439.  
  41440. Thanks in advance.
  41441.  
  41442. Robert Kim Yates
  41443. rkyates@llnl.gov
  41444. Computing Research Group L-306
  41445. Lawrence Livermore National Laboratory
  41446. P.O. Box 808 Livermore, CA 94550
  41447.  
  41448.  
  41449. Approved: parallel@hubcap.clemson.edu
  41450. Follow-up: comp.parallel
  41451. Path: bounce-back
  41452. From: vishkin@umiacs.umd.edu (Uzi Vishkin)
  41453. Newsgroups: comp.theory,comp.parallel
  41454. Subject: Post doc position
  41455. Organization: U of Maryland, Dept. of Computer Science, Coll. Pk., MD 20742
  41456.  
  41457.                   A POST-DOC Position
  41458.  
  41459. Applications are invited for an anticipated post-doctoral position
  41460. in the area of discrete algorithms 
  41461. at the University of Maryland Institute for Advanced Computer Studies
  41462. (UMIACS).  A Ph.D in Computer Science or a related area is required. 
  41463.  
  41464. Please send a letter of application, and a resume to
  41465. Prof. Larry S. Davis Director, UMIACS, A.V. Williams 
  41466. Bldg., College Park, MD 20742-3251. 
  41467. Attach to your letter a short description (2-3 pages) of your
  41468. research program; please try to
  41469. respond to the following questions in the program:
  41470. (1) What kind of research problems (or themes) are you planning to work on?
  41471. (2) Why are these problems interesting?
  41472. (3) Will your research plans be enhanced by experimental work?
  41473. (A well-articulated positive or negative answer will be appropriate here.)
  41474. Also, have 3-5 letters of recommendation forwarded directly to Prof. Davis.
  41475.  
  41476. The University of Maryland Institute for Advanced Computer Studies (UMIACS)
  41477. was established in 1985 on the College Park Campus as an independent
  41478. state-funded interdisciplinary computer research unit. Research is being
  41479. conducted in the areas of Artificial Intelligence, Computation Theory, 
  41480. Computer Systems, Design and Analysis of Algorithms,
  41481. Database Systems, Fault Tolerance, Numerical Analysis,
  41482. Parallel Processing, Performance Evaluation and Software Engineering.
  41483.  
  41484. EOAA employer.
  41485.  
  41486. Approved: parallel@hubcap.clemson.edu
  41487. Follow-up: comp.parallel
  41488. Path: bounce-back
  41489. Newsgroups: comp.parallel
  41490. From: hra@pollux.cs.uga.edu (Hamid R. Arabnia)
  41491. Subject: CFP - Transputer Research And Applications (NATUG7)
  41492. Date: 3 Dec 1993 15:58:07 GMT
  41493. Organization: University of Georgia, Athens
  41494. Nntp-Posting-Host: pollux.cs.uga.edu
  41495.  
  41496.  
  41497.  
  41498.  
  41499. ************************************************************************
  41500.  
  41501.                            CALL FOR PAPERS
  41502.  
  41503.            1994 Transputer Research And Applications Conference
  41504.             Sponsored by North American Transputer Users Group
  41505.                           October 23-25, 1994
  41506.  
  41507.  
  41508.      The 1994 Transputer Research And Applications Conference (7th in the
  41509. series) will be held in Athens, Georgia (USA), on October 23 through 25.
  41510. The first day is reserved for tutorial sessions.
  41511.  
  41512. Contributions are being solicited in the areas of hardware, software, and
  41513. applications of processors that may be used as basic building blocks for
  41514. multicomputer systems such as SGS-INMOS T9000, T8xx, T4xx, the Texas
  41515. Instruments C40, the DEC Alpha AXP, and the Intel i860 and iWarp.  Topics
  41516. of interest include all aspects of the following:
  41517.  
  41518.                       parallelism as a concept (models),
  41519.                       parallel algorithms,
  41520.                       parallel machine architectures,
  41521.                       interconnection networks,
  41522.                       software tools,
  41523.                       operating systems for multiprocessors,
  41524.                       mapping algorithms into multiprocessors,
  41525.                       scalable systems (algorithms and hardware),
  41526.                       scalability of crossbar switches, and
  41527.                       applications (such as: numerical, imaging,
  41528.                           vision, GIS, ...).
  41529.  
  41530.      Presentations will be allotted 20 minutes each, with ample additional
  41531. time for questions.  Additional papers may be presented at poster sessions
  41532. if there is sufficient interest.  All accepted papers will appear in a
  41533. published proceedings.
  41534.  
  41535.      Abstracts of 1000 - 1500 words must be received by May 16, 1994.
  41536. Notices of acceptance will be sent out by June 15, 1994 and final
  41537. drafts of accepted papers will be due by July 15, 1994.  Authors
  41538. should indicate on the abstract whether they would be willing to present
  41539. the paper in a poster session.
  41540.  
  41541.      Please include mail address, electronic mail address, telephone
  41542. and FAX numbers of the presenter.
  41543.  
  41544. Abstracts should be submitted to:
  41545.  
  41546. Prof. Hamid R. Arabnia
  41547. University of Georgia
  41548. Department of Computer Science
  41549. 415 Graduate Studies Research Center
  41550. Athens, Georgia 30602, USA
  41551.  
  41552. Tel: (706) 542-3480
  41553. Fax: (706) 542-2966
  41554. email: hra@cs.uga.edu
  41555.  
  41556. Email submissions of abstracts in ascii form are preferred.
  41557.  
  41558.  
  41559. ************************************************************************
  41560.  
  41561. Approved: parallel@hubcap.clemson.edu
  41562. Follow-up: comp.parallel
  41563. Path: bounce-back
  41564. Newsgroups: comp.parallel
  41565. From: anna@deis35.cineca.it (Anna Ciampolini)
  41566. Subject: ECOOP94 Call for Demo
  41567. Organization: DEIS ... le news
  41568. Date: Fri, 3 Dec 93 15:36:07 GMT
  41569. Apparently-To: comp-parallel@uunet.uu.net
  41570.  
  41571.  
  41572.  
  41573. Call for Demonstration Proposals - ECOOP '94
  41574. The Eighth European Conference on Object-Oriented Programming
  41575. Bologna, Italy
  41576. July 6-8, 1994
  41577.  
  41578. The 1994 Eighth European Conference on Object-Oriented Programming will 
  41579. be held on July 6-8, 1994, in Bologna, Italy.  The Conference aims to 
  41580. bring together researchers and practitioners from academia and industry 
  41581. to discuss and exchange new developments in object-oriented languages, 
  41582. systems and methods.
  41583.  
  41584. A Demonstration session is planned in parallel with the Conference sessions.
  41585. Demonstrations of object-oriented software are invited to illustrate 
  41586. innovative ideas.
  41587.  
  41588. Candidate demos should:
  41589. *    illustrate innovative object-oriented concepts;
  41590. *    use advanced technologies;
  41591. *    present  non-commercial products (an exhibition session for 
  41592.     commercial object-oriented software is also planned).
  41593.  
  41594. Proposals for demonstrations should be approximately three pages in length, 
  41595. and should contain:
  41596. *    a description of the demo, identifying the specific technical 
  41597.     issues that will be addressed;
  41598. *    a discussion of the relevance of the demo  for the object-oriented 
  41599.     programming community;
  41600. *    the hardware/software requirements for the demonstration.
  41601.  
  41602. Acceptance of demos will be decided on the basis of their technical merit, 
  41603. scientific relevance and  novelty; it will be also constrained by the 
  41604. organization capability to furnish the required hardware/software.                         
  41605. Proposals must be submitted no later than April 1, 1994 to:
  41606.  
  41607. Anna Ciampolini
  41608. ECOOP'94 Demonstration Chair
  41609. DEIS - Universita' di Bologna            
  41610. Viale Risorgimento 2            
  41611. I-40136 Bologna, Italy                
  41612. Tel.: +39 51 6443033            
  41613. Fax : +39 51 6443073            
  41614. E-mail: anna@deis33.cineca.it    
  41615.  
  41616. Acceptance will be notified no later than May 16, 1994.
  41617.  
  41618. Approved: parallel@hubcap.clemson.edu
  41619. Follow-up: comp.parallel
  41620. Path: bounce-back
  41621. Newsgroups: comp.parallel
  41622. From: sscott@mcs.kent.edu (Stephen Scott)
  41623. Subject: Wanted: SC`93 paper & abstract list
  41624. Date: 3 Dec 1993 16:23:00 GMT
  41625. Organization: Kent State University
  41626. Nntp-Posting-Host: mcs.kent.edu
  41627.  
  41628. Does anyone have a list of papers & abstracts from SuperComputer `93
  41629. that they could forward?
  41630.  
  41631. I would also like the same information from the "Parallel Computation
  41632. on a Network of Computers -- A Minisymposium during Supercomputing'93."
  41633.  
  41634. thanks,
  41635.  
  41636. stephen
  41637. sscott@mcs.kent.edu
  41638.  
  41639. Approved: parallel@hubcap.clemson.edu
  41640. Follow-up: comp.parallel
  41641. Path: bounce-back
  41642. Newsgroups: convex.list.info-clusters,comp.parallel
  41643. From: suplick@convex.com (Jean Suplick)
  41644. Subject: Load Balancer: what version?
  41645. Sender: usenet@convex.com (news access account)
  41646. Nntp-Posting-Host: mikey.convex.com
  41647. Organization: CONVEX Computer Corporation, Richardson, Tx., USA
  41648. Date: Fri, 3 Dec 1993 16:57:13 GMT
  41649. X-Disclaimer: This message was written by a user at CONVEX Computer
  41650.               Corp. The opinions expressed are those of the user and
  41651.               not necessarily those of CONVEX.
  41652. Apparently-To: hypercube@hubcap.clemson.edu
  41653.  
  41654. Can someone tell me what the latest version of Load Balancer is?  My literature
  41655. is from 1992 and I fear it is out of date?  I'm most interested in 
  41656. understanding what new features might have been added in a later release.
  41657.  
  41658. Thanks,
  41659. Jean
  41660. suplick@convex.com
  41661.  
  41662.  
  41663. Approved: parallel@hubcap.clemson.edu
  41664. Follow-up: comp.parallel
  41665. Path: bounce-back
  41666. Newsgroups: comp.parallel
  41667. Date: Fri, 3 Dec 93 13:39:59 -0700
  41668. From: mdb528@michigan.et.byu.edu (Matthew D. Bennett)
  41669. Organization: Brigham Young University, Provo UT USA
  41670. Subject: Distributed Computing Environments
  41671. Keywords: distributed computing
  41672.  
  41673.  
  41674. A fellow student and myself are about to embark on a development effort to build a preprossesor to help develop distributed programs.  If there is something already out there, I would be very appreciative on some information.  If there is nothing out there, but you are interested in our project, please send me some mail and I will forward information on the preproccesor and how to get a copy of it.
  41675.  
  41676. Matthew D. Bennett
  41677.  
  41678. -- 
  41679. -----------------------------------------------------------------------------
  41680. If you have to stop to catch your breath, you're not skiing hard enough!
  41681.  
  41682. Approved: parallel@hubcap.clemson.edu
  41683. Follow-up: comp.parallel
  41684. Path: bounce-back
  41685. Newsgroups: comp.parallel
  41686. From: stew@sep.Stanford.EDU (Stewart Levin)
  41687. Newsgroups: comp.sys.super,comp.parallel,su.computers
  41688. Subject: Stanford Winter Quarter course announcement
  41689. Date: 3 Dec 1993 20:48:44 GMT
  41690. Organization: Stanford Exploration Project
  41691. Nntp-Posting-Host: oas.stanford.edu
  41692. Keywords: high performance computing, supercomputing
  41693.  
  41694. (As this course will be broadcast via the Stanford Instructional
  41695. Television Network, I am cross-posting outside of Stanford, too.)
  41696.  
  41697.  
  41698. Title:     High Performance Computing
  41699.  
  41700. Units:    2 (1 without lab)
  41701.  
  41702. Qtr:    Winter 1993-94
  41703.  
  41704. Text:    High Performance Computing, Kevin Dowd, O'Reilly & Associates
  41705.  
  41706. Course No: SCCM 220-240-0-01
  41707.  
  41708.  
  41709.  
  41710. Abstract:  This course covers effective techniques for mapping
  41711. numerically intensive algorithms to modern high performance
  41712. computer platforms such as the Cray C-90 or the IBM RS6000. 
  41713. This includes understanding hardware parallelism and software 
  41714. pipelining, compiler directives and limitations, source code
  41715. transformations to enhance register and memory usage, and when
  41716. and how to delve into assembly language for maximum
  41717. performance.  Hands-on exercises will develop skills in applying
  41718. general principles to a variety of architectures, including RISC,
  41719. vector, and VLIW machines.
  41720.  
  41721.  
  41722.  
  41723. Prerequisites:  Familiarity with Fortran and C are highly recommended. 
  41724. Prior assembly language experience helpful, but not required.
  41725.  
  41726.  
  41727.  
  41728. Maximum enrollment: 24 for labs (2 units), lectures only beyond that
  41729.  
  41730.  
  41731.  
  41732. Labs:    Much of the course work will consist of computer labs requiring
  41733. implementation of carefully selected algorithms on various architectures.
  41734.  
  41735.  
  41736.  
  41737. Topics by week:
  41738.  
  41739.  
  41740.  
  41741. Week 1:     Overview of course goals and timetable
  41742.  
  41743.     Architectural components
  41744.  
  41745.     Functional units
  41746.  
  41747.     Iterations and looping
  41748.  
  41749.     Software pipelining
  41750.  
  41751.     Lab 1: Complex vector multiplication benchmarking
  41752.         (introduction to computers used in the course.)
  41753.  
  41754.  
  41755.  
  41756. Week 2:    Operation counting and performance prediction
  41757.  
  41758.     VLIW programming paradigm - horizontal microcode
  41759.  
  41760.     Lab 2: Complex vector multiplication in horizontal microcode
  41761.            (i860 programming)
  41762.  
  41763.  
  41764.  
  41765. Week 3:    Memory hierarchies
  41766.  
  41767.         % Registers - scalar and vector
  41768.  
  41769.         % Memory banks
  41770.  
  41771.         % Cache
  41772.  
  41773.         % Paging
  41774.  
  41775.     Algorithm and data layout considerations
  41776.  
  41777.     Lab 3: Matrix-vector multiplication - blas primitives &
  41778.         block methods
  41779.  
  41780.  
  41781.  
  41782. Week 4:    Optimizing compilers
  41783.  
  41784.         % Dependency analysis
  41785.  
  41786.         % Instruction reordering
  41787.  
  41788.         % Loop unrolling
  41789.  
  41790.         % Loop interchange
  41791.  
  41792.         % Strength reduction
  41793.  
  41794.         % Hoisting and sinking
  41795.  
  41796.     Compiler directives
  41797.  
  41798.     Lab 4: Tridiagonal equations: overcoming recursion dependencies
  41799.  
  41800.  
  41801.  
  41802. Week 5:    Vectorization
  41803.  
  41804.     SIMD parallelism
  41805.  
  41806.     Strip mining
  41807.  
  41808.     Vectorizing conditional calculations
  41809.  
  41810.     Indirect addressing
  41811.  
  41812.     Lab 5: Vectorizing Quicksort
  41813.  
  41814.  
  41815.  
  41816. Week 6:    RISC architectures
  41817.  
  41818.     Hardware optimization support
  41819.  
  41820.     RISC compilers
  41821.  
  41822.     Superscalar designs
  41823.  
  41824.     Lab 6: Matrix-matrix multiplication
  41825.  
  41826.  
  41827.  
  41828. Week 7:    Massively parallel computing
  41829.  
  41830.     Data parallel model
  41831.  
  41832.     Alphabet soups
  41833.  
  41834.     Performance analysis
  41835.  
  41836.     Load balancing
  41837.  
  41838.     Lab 7: On-processor optimization: Complex multiplication (CM-5)
  41839.  
  41840.  
  41841.  
  41842. Week 8:    Performance versus Portability
  41843.  
  41844.     When is assembly programming indicated?
  41845.  
  41846.     Variant or alternative algorithms.
  41847.  
  41848.     Lab 8: FFT's
  41849.  
  41850.  
  41851.  
  41852. Week 9:    I/O performance
  41853.  
  41854.     Blocking
  41855.  
  41856.     Sequential and random access
  41857.  
  41858.     RAID systems
  41859.  
  41860.     Out-of-core calculations
  41861.  
  41862.     Lab 9: 3D finite-differences
  41863.  
  41864.  
  41865.  
  41866. Week 10:    Future trends in High Performance Computing
  41867.  
  41868.     Architectures
  41869.  
  41870.     Languages and compilers
  41871.  
  41872.     Network computing
  41873.  
  41874.     
  41875.  
  41876.     
  41877.  
  41878.     
  41879.  
  41880.     
  41881.  
  41882.  
  41883. Approved: parallel@hubcap.clemson.edu
  41884. Follow-up: comp.parallel
  41885. Path: bounce-back
  41886. Newsgroups: comp.parallel
  41887. From: leech@cs.unc.edu (Jon Leech)
  41888. Subject: Re: SIMD/MSIMD for 3D graphics
  41889. Date: 3 Dec 1993 22:25:06 -0500
  41890. Organization: The University of North Carolina at Chapel Hill
  41891. References: <CHArto.3F4@brunel.ac.uk>
  41892.  
  41893. In article <CHArto.3F4@brunel.ac.uk> Zahid.Hussain@brunel.ac.uk (Zahid Hussain) writes:
  41894. >Does anyone have any reference as to how SIMD/MSIMD parallel processors
  41895. >are being used for 3D graphics? In which directions are the research
  41896. >being directed?
  41897.  
  41898.     Rendering is the direction with the most experience and examples,
  41899. probably because rasterization is inherently highly parallel. Our group has
  41900. been building massively parallel (tens to hundreds of thousands of PEs) SIMD
  41901. rasterization processors since the mid-80s. See the paper by Molnar et al.
  41902. in the SIGGRAPH '92 proceedings on PixelFlow for the latest machine; earlier
  41903. papers from the group focus more on the SIMD aspect. SGI's RealityEngine
  41904. architecture uses more moderate levels of parallelism (320 PEs) in their
  41905. rasterizers (see *their* SIGGRAPH '92 paper), and other commercial designs
  41906. are heading this way. As far as other types of rendering, people have done
  41907. ray-tracers on Connection Machines and the like, though I don't have
  41908. references off the top of my head for those.
  41909.  
  41910.     The geometric transformation stage of the graphics pipeline can benefit
  41911. from moderate levels of parallelism, and some graphics systems use a SIMD
  41912. architecture for this (synchronized MIMD PEs using existing commercial CPUs
  41913. or ASICs are more common). Usually this is just 4-8 PEs, with high FP
  41914. performance.
  41915.  
  41916.     Modelling can sometimes make good use of SIMD architectures, as in Karl
  41917. Sims' SIGGRAPH '89 (or maybe '90) paper on particle systems (in some sense,
  41918. any dynamics model could be used for 3D graphics, but this is probably not
  41919. what you're after).
  41920.  
  41921.     Note that much of the work I mention is done with special-purpose SIMD
  41922. systems, rather than a CM-2 or MasPar. These specialized systems usually
  41923. have little or no communications among the PEs, and are tightly coupled to
  41924. other components of a graphics system, such as the frame buffer. Of course
  41925. you can implement the same algorithms on more general architectures, with
  41926. considerably less performance for the same amount of silicon.
  41927.  
  41928.     I'd be more specific with citations, but I'm at home and my conference
  41929. proceedings aren't.
  41930.  
  41931.     Jon Leech
  41932.     UNC Pixel-Planes Project
  41933.     __@/
  41934.  
  41935. Approved: parallel@hubcap.clemson.edu
  41936. Follow-up: comp.parallel
  41937. Path: bounce-back
  41938. Newsgroups: comp.parallel
  41939. From: parallel@netcom.com (B. Mitchell Loebel)
  41940. Subject: The PARALLEL Processing Connection - What Is It?
  41941. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  41942.  
  41943. The PARALLEL Processing Connection is an entrepreneurial 
  41944. association; we mean to assist our members in spawning very 
  41945. successful new businesses involving parallel processing.
  41946.  
  41947. Our meetings take place on the second Monday of each month at 
  41948. 7:15 PM at Sun Microsystems at 901 South San Antonio Road in 
  41949. Palo Alto, California. Southbound travelers exit 101 at San 
  41950. Antonio ; northbound attendees also exit at San Antonio and take the 
  41951. overpass to the other side of 101. There is an $8 visitor fee for non-
  41952. members and members ($40 per year) are admitted free. Our phone 
  41953. number is (408) 732-9869 for a recorded message about upcoming 
  41954. meetings.
  41955.  
  41956. Since the PPC was formed in late 1989 many people have sampled 
  41957. it, found it to be very valuable, and even understand what we're up 
  41958. to. Nonetheless, certain questions persist. Now, as we approach our 
  41959. fifth year of operation, perhaps we can and should clarify some of 
  41960. the issues. For example:
  41961.  
  41962. Q.  What is PPC's raison d'etre?
  41963. A.  The PARALLEL Processing Connection is an entrepreneurial 
  41964. organization intent on facilitating the emergence of new businesses. 
  41965. PPC does not become an active member of any such new entities, ie: 
  41966. is not itself a profit center.
  41967.  
  41968. Q.  The issue of 'why' is perhaps the most perplexing. After all, a 
  41969. $40 annual membership fee is essentially free and how can anything 
  41970. be free in 1993? What's the payoff? For whom?
  41971. A.  That's actually the easiest question of all. Those of us who are 
  41972. active members hope to be a part of new companies that get spun 
  41973. off; the payoff is for all of us -- this is an easy win-win! Since 
  41974. nothing else exists to facilitate hands-on entrepreneurship, we 
  41975. decided to put it together ourselves. 
  41976.  
  41977. Q.  How can PPC assist its members?
  41978. A.  PPC is a large technically credible organization. We have close 
  41979. to 100 paid members and a large group of less regular visitors; we 
  41980. mail to approximately 500 engineers and scientists (primarily in 
  41981. Silicon Valley). Major companies need to maintain visibility in the 
  41982. community and connection with it; that makes us an important 
  41983. conduit. PPC's strategy is to trade on that value by collaborating 
  41984. with important companies for the benefit of its members. Thus, as 
  41985. an organization, we have been able to obtain donated hardware, 
  41986. software, and training and we've put together a small development 
  41987. lab for hands-on use of members at our Sunnyvale office. Further, 
  41988. we've been able to negotiate discounts on seminars and 
  41989. hardware/software purchases by members. Most important, 
  41990. alliances such as we described give us an inside opportunity to 
  41991. JOINT VENTURE SITUATIONS.
  41992.  
  41993. Q.  As an attendee, what should I do to enhance my opportunities?
  41994. A.  Participate, participate, participate. Many important industry 
  41995. principals and capital people are in our audience looking for the 
  41996. 'movers'!
  41997.  
  41998. For further information contact:
  41999.  
  42000. -- 
  42001. B. Mitchell Loebel                                      parallel@netcom.com 
  42002. Director - Strategic Alliances and Partnering                  408 732-9869 
  42003. PARALLEL Processing Connection 
  42004.  
  42005. Approved: parallel@hubcap.clemson.edu
  42006. Follow-up: comp.parallel
  42007. Path: bounce-back
  42008. Newsgroups: comp.parallel
  42009. From: parallel@netcom.com (B. Mitchell Loebel)
  42010. Subject: The PARALLEL Processing Connection - December Meeting Notice
  42011. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  42012. Date: Sat, 4 Dec 1993 22:54:20 GMT
  42013. Apparently-To: comp-parallel@uunet.uu.net
  42014.  
  42015. December 13th - Measuring & Predicting Performance With the 
  42016. AIMS Software Toolset from NASA Ames Research Center
  42017.  
  42018. Designing the "next parallel programming paradigm" (such as, 
  42019. maybe workstation clusters linked with SCI as a Distributed Shared 
  42020. Memory "platform")?  Jerry Yan of NASA Ames will describe an 
  42021. invaluable software tool-set being put together which enables 
  42022. parallel program execution to be captured and displayed (and 
  42023. simulated?).  The Automated Instrumentation and Monitoring 
  42024. System (spelled AIMS) inserts active event recorders into program 
  42025. source code before compilation; collects performance data at run-
  42026. time; and affords visualization of program execution based on the 
  42027. data collected.  AIMS 2.2 runs on the iPSC/860, iPSC/Delta and 
  42028. Paragon.  Prototypes for the CM-5 and work station clusters 
  42029. running PVM have already been developed.
  42030.  
  42031. Performance tuning will be illustrated using a simple FORTRAN 
  42032. implemenation of a NASA Parallel Benchmark called IS (Integer 
  42033. Sort).
  42034.  
  42035.  
  42036. A discussion of member entrepreneurial projects currently underway 
  42037. will begin at 7:15PM and the main meeting will start promptly at 
  42038. 7:45PM at Sun Microsystems at 901 San Antonio Road in Palo 
  42039. Alto. This is just off the southbound San Antonio exit of 101.  
  42040. Northbound travelers also exit at San Antonio and take the overpass 
  42041. to the other side of 101.
  42042.  
  42043. Please be prompt; as usual, we expect a large attendance; don't be 
  42044. left out or left standing. There is a $8 fee for non-members and 
  42045. members will be admitted free.
  42046.  
  42047. -- 
  42048. B. Mitchell Loebel                                      parallel@netcom.com 
  42049. Director - Strategic Alliances and Partnering                  408 732-9869 
  42050. PARALLEL Processing Connection 
  42051.  
  42052. Approved: parallel@hubcap.clemson.edu
  42053. Follow-up: comp.parallel
  42054. Path: bounce-back
  42055. Newsgroups: comp.parallel
  42056. From: thibaud@kether.cgd.ucar.edu (Francois P. Thibaud)
  42057. Subject: First CM International Users Group Meeting in Santa Fe
  42058. Keywords: TMC, CM-2, CM-200, CM-5, user group
  42059. Sender: news@ncar.ucar.edu (USENET Maintenance)
  42060. Organization: Climate and Global Dynamics Division/NCAR, Boulder, CO
  42061. Date: Sun, 5 Dec 1993 02:34:57 GMT
  42062. Apparently-To: comp-parallel@ncar
  42063.  
  42064. The following is a forwarded message from "Stephen C. Pope"
  42065. <scp@acl.lanl.gov> sent to "cm5-users-list@acl.lanl.gov".
  42066.  
  42067. Hope to see you in Santa Fe, New Mexico !
  42068. Francois P. Thibaud
  42069. Organization: University of Maryland at College Park (UMCP) and
  42070.     The National Center for Atmospheric Research (NCAR)
  42071. Address: 1850, Table Mesa Drive; PO Box 3000; Boulder CO 80307-3000 USA
  42072. Phone: (+1)303-497-1707; Fax: (+1)303-497-1700
  42073. Internet: thibaud@ncar.ucar.edu (thibaud@ra.cgd.ucar.edu)
  42074. ------------------------------------------------------------------------
  42075.  
  42076.             MARK THIS ON YOUR CALENDARS!!!
  42077.  
  42078.     ***************PRELIMINARY ANNOUNCEMENT***************
  42079.  
  42080. The first CM International User Group meeting will be held in Santa
  42081. Fe, NM, from February 16-18, 1994.  Los Alamos National Laboratory, in
  42082. conjunction with TMC, is organizing this first-ever meeting of the
  42083. newly-formed CM User Group.  The agenda is now being planned and will
  42084. cover talks and working groups on a selected set of topics important
  42085. to your needs.
  42086.  
  42087. The meeting will be held at the Eldorado Hotel and has been carefully
  42088. scheduled so that attendees may tack on a weekend of (hopefully) great
  42089. skiing at any of the nearby ski areas.  The hotel conference rate will
  42090. apply February 19-20 for anyone wishing to take advantage of this.
  42091.  
  42092. If you are possibly interested in attending, respond to:
  42093.  
  42094.             cm-users@acl.lanl.gov
  42095.  
  42096. with your name, email address, street address, phone and FAX numbers,
  42097. and general applications you use.
  42098.  
  42099. We will need your preliminary RSVP and address information by DECEMBER
  42100. 13 so we can send you the registration materials and the meeting
  42101. agenda by DECEMBER 20.  CUTOFF FOR HOUSING WILL BE JANUARY 7, 1994.
  42102. If you have questions, you may respond to the above address or call
  42103. Erma Pearson at 505/665-4530.
  42104.  
  42105.  
  42106. Approved: parallel@hubcap.clemson.edu
  42107. Follow-up: comp.parallel
  42108. Path: bounce-back
  42109. Newsgroups: comp.parallel
  42110. From: teoym@iscs.nus.sg
  42111. Subject: IEEE TENCON '94 Special Session
  42112. Organization: Dept of Info Sys and Comp Sci, National University of Singapore, SINGAPORE
  42113. Reply-To: teoym@iscs.nus.sg
  42114.  
  42115.                          FINAL CALL FOR PAPERS 
  42116.  
  42117.                             IEEE TENCON '94
  42118.                      22 - 26 August 1994, SINGAPORE 
  42119.  
  42120.                            Special Session on
  42121.              PARALLEL PROCESSING TECHNOLOGY & APPLICATIONS
  42122.  
  42123. --------------------------------------------------------------------------
  42124. The one-day special session will provide a forum for presentation and 
  42125. exchange of current work on all areas of parallel processing technology 
  42126. and its applications. Topics of interest include, but are not limited to, 
  42127. the following areas: 
  42128.      o  parallel architectures 
  42129.      o  parallel languages and algorithms 
  42130.      o  parallelising compilers and programming environments 
  42131.      o  performance modelling/evaluation 
  42132.      o  applications on parallel systems
  42133.  
  42134. Authors are invited to submit complete, original, and previously 
  42135. unpublished papers reflecting their current research results.  All 
  42136. submitted papers will be refereed.  Accepted papers will be published 
  42137. in the IEEE TENCON proceedings.
  42138.  
  42139. Manuscripts should not exceed >> 20 pages << in length (double spaced) 
  42140. including an abstract, all text, figures, tables and references. The 
  42141. author's names, affiliation, complete address of the corresponding 
  42142. author, email address, and telephone and fax numbers should be on the 
  42143. cover page.  Please submit five copies of the complete paper to: 
  42144.           
  42145.           Dr Teo Yong Meng                                        
  42146.           Department of Information Systems & Computer Science
  42147.           National University of Singapore                    
  42148.           Kent Ridge, Singapore 0511                      
  42149.           tel : (65) 772 2830,  fax : (65) 779 4580                       
  42150.           email : teoym@iscs.nus.sg                               
  42151.  
  42152. Important Dates 
  42153.       1 January 1994   - papers due           
  42154.       15 March 1994    - notice of acceptance 
  42155.       1 June 1994      - camera-ready paper due
  42156.  
  42157. Session Chairs:
  42158.    Y.M. Teo, National University of Singapore 
  42159.    W.N. Chin, National University of Singapore
  42160.  
  42161. Session Program Committee:
  42162.    M.N. Chong, Nanyang Technological University, SINGAPORE  
  42163.    J.R. Gurd, University of Manchester, UNITED KINGDOM
  42164.    P.H.J. Kelly, Imperial College, UNITED KINGDOM           
  42165.    K. Murakami, Kyushu University, JAPAN                    
  42166.    L.M. Patnaik, Indian Institute of Science, INDIA          
  42167.    R. Raghavan, Institute of Systems Science, SINGAPORE     
  42168.    A.L. Wendelborn, University of Adelaide, AUSTRALIA       
  42169.    C.K. Yuen, National University of Singapore, SINGAPORE 
  42170.  
  42171.  
  42172. Approved: parallel@hubcap.clemson.edu
  42173. Follow-up: comp.parallel
  42174. Path: bounce-back
  42175. Newsgroups: comp.parallel
  42176. From: teoym@iscs.nus.sg
  42177. Subject: IEEE TENCON '94 Special Session
  42178. Organization: Dept of Info Sys and Comp Sci, National University of Singapore, SINGAPORE
  42179. Reply-To: teoym@iscs.nus.sg
  42180.  
  42181.                          FINAL CALL FOR PAPERS 
  42182.  
  42183.                             IEEE TENCON '94
  42184.                      22 - 26 August 1994, SINGAPORE 
  42185.  
  42186.                            Special Session on
  42187.              PARALLEL PROCESSING TECHNOLOGY & APPLICATIONS
  42188.  
  42189. --------------------------------------------------------------------------
  42190. The one-day special session will provide a forum for presentation and 
  42191. exchange of current work on all areas of parallel processing technology 
  42192. and its applications. Topics of interest include, but are not limited to, 
  42193. the following areas: 
  42194.      o  parallel architectures 
  42195.      o  parallel languages and algorithms 
  42196.      o  parallelising compilers and programming environments 
  42197.      o  performance modelling/evaluation 
  42198.      o  applications on parallel systems
  42199.  
  42200. Authors are invited to submit complete, original, and previously 
  42201. unpublished papers reflecting their current research results.  All 
  42202. submitted papers will be refereed.  Accepted papers will be published 
  42203. in the IEEE TENCON proceedings.
  42204.  
  42205. Manuscripts should not exceed >> 20 pages << in length (double spaced) 
  42206. including an abstract, all text, figures, tables and references. The 
  42207. author's names, affiliation, complete address of the corresponding 
  42208. author, email address, and telephone and fax numbers should be on the 
  42209. cover page.  Please submit five copies of the complete paper to: 
  42210.           
  42211.           Dr Teo Yong Meng                                        
  42212.           Department of Information Systems & Computer Science
  42213.           National University of Singapore                    
  42214.           Kent Ridge, Singapore 0511                      
  42215.           tel : (65) 772 2830,  fax : (65) 779 4580                       
  42216.           email : teoym@iscs.nus.sg                               
  42217.  
  42218. Important Dates 
  42219.       1 January 1994   - papers due           
  42220.       15 March 1994    - notice of acceptance 
  42221.       1 June 1994      - camera-ready paper due
  42222.  
  42223. Session Chairs:
  42224.    Y.M. Teo, National University of Singapore 
  42225.    W.N. Chin, National University of Singapore
  42226.  
  42227. Session Program Committee:
  42228.    M.N. Chong, Nanyang Technological University, SINGAPORE  
  42229.    J.R. Gurd, University of Manchester, UNITED KINGDOM
  42230.    P.H.J. Kelly, Imperial College, UNITED KINGDOM           
  42231.    K. Murakami, Kyushu University, JAPAN                    
  42232.    L.M. Patnaik, Indian Institute of Science, INDIA          
  42233.    R. Raghavan, Institute of Systems Science, SINGAPORE     
  42234.    A.L. Wendelborn, University of Adelaide, AUSTRALIA       
  42235.    C.K. Yuen, National University of Singapore, SINGAPORE 
  42236.  
  42237.  
  42238. Approved: parallel@hubcap.clemson.edu
  42239. Follow-up: comp.parallel
  42240. Path: bounce-back
  42241. Newsgroups: comp.parallel
  42242. From: jwkhong@csd.uwo.ca (James W. Hong)
  42243. Subject: ICCI'94 CFP - 2nd posting
  42244. Organization: Dept. of Computer Science, University of Western Ontario
  42245. Date: Sun, 5 Dec 1993 17:29:35 GMT
  42246. Message-ID: <1993Dec5.172935.19704@julian.uwo.ca>
  42247. Sender: news@julian.uwo.ca (USENET News System)
  42248. Nntp-Posting-Host: mccarthy.csd.uwo.ca
  42249.  
  42250.  
  42251.                CALL FOR PAPERS
  42252.             *********************
  42253.  
  42254.                ICCI'94
  42255.  
  42256.       6th INTERNATIONAL CONFERENCE ON COMPUTING AND INFORMATION
  42257.  
  42258.              May 26 - 28 , 1994
  42259.  
  42260.               Trent University
  42261.  
  42262.            Peterborough, Ontario Canada
  42263.  
  42264. *****************************************************************************
  42265.  
  42266. Keynote Address: "Text Databases"
  42267.      Professor Frank Tompa
  42268.      Director, Centre for the New Oxford English Dictionary and Text Research
  42269.      University of Waterloo, Canada
  42270.  
  42271. *****************************************************************************
  42272.  
  42273. Steering Committee: Waldemar W. Koczkodaj, Laurentian University, Canada (Chair)
  42274.                     S.K. Micheal Wong, University of Regina, Canada
  42275.                     R.C. Kick, Technological University of Tennessee, USA
  42276.  
  42277. *****************************************************************************
  42278.  
  42279. General Chair: Pradip Srimani, Colorado State University, USA
  42280.  
  42281. Organizing Committee Chair: Richard Hurley, Trent University, Canada
  42282.  
  42283. Program Committee Chair: David Krumme, Tufts University, USA 
  42284.  
  42285. Public Relations Chair: James Hong, University of Western Ontario, Canada
  42286.  
  42287. ******************************************************************************
  42288.  
  42289. ICCI'94 will be an international forum for presentation of new results in
  42290. research, development, and applications in computing and information. The
  42291. organizers expect both practitioners and theorists to attend.
  42292.  
  42293. The conference will be organized in 5 streams:
  42294.  
  42295. Stream A: Data Theory and Logic, Information and Coding Theory
  42296.       Theory of Programming, Algorithms, Theory of Computation
  42297. Stream B: Distributed Computing and Communication
  42298. Stream C: Concurrency and Parallelism
  42299. Stream D: AI Methodologies, Expert Systems, Knowledge Engineering, and Machine
  42300.       Learning
  42301. Stream E: Software and Data Engineering, CASE Methodology, Database,
  42302.       Information Technology
  42303.  
  42304.  
  42305. Authors are invited to submit five copies of their manuscript to the
  42306. appropriate Stream Chair by the submission deadline.  Papers should be written
  42307. in English, and contain a maximum of 5000 words. Each paper should include
  42308. a short abstract and a list of keywords indicating subject classification.
  42309.  
  42310. Please note that a blind review process will be used to evaluate submitted
  42311. papers.  Authors' names and institutions should be identified only on a
  42312. cover page that can be detached.  No information that clearly identifies
  42313. the authorship of the paper should be included in the body.
  42314.  
  42315. Authors of accepted papers will be asked to prepare the final version
  42316. according to the publisher's requirements.  It is expected this year's
  42317. proceedings will again be published by IEEE Computer Society Press or will
  42318. make the premier issue of a new CD-ROM journal Journal of Computing
  42319. and Information.
  42320.  
  42321.  
  42322. Stream Chairs:
  42323. *************
  42324.  
  42325. STREAM A:
  42326. ========
  42327.  Si-Qing Zheng
  42328.  Louisiana State University, USA
  42329.  Email: zheng@bit.csc.lsu.edu
  42330.  Fax:  (504) 388-1465
  42331.  
  42332.  Email Contact: Anil Shende
  42333.                 Dickinson College, USA
  42334.                 Fax:  (717) 245-1690
  42335.                 email: shende@dickinson.edu
  42336.  
  42337. STREAM B:
  42338. ========
  42339.  H. Douglas Dykeman,
  42340.  IBM Zurich Research Lab, Switzerland
  42341.  Email: ddy@zurich.ibm.com
  42342.  Fax: 41-1-710-3608
  42343.  
  42344.  Email Contact: Bart Domzy
  42345.                 Trent University, Canada
  42346.                 Fax:  (705) 748-1625
  42347.                 email: csbcd@blaze.trentu.ca
  42348.  
  42349. STREAM C:
  42350. ========
  42351.  Eric E. Johnson
  42352.  New Mexico State University, USA
  42353.  Email: ejohnson@nmsu.edu
  42354.  Fax: (505) 646-1435
  42355.  
  42356.  Email Contact: Reda Ammar
  42357.                 University of Connecticut, USA
  42358.                 Fax:  (203) 486-4817
  42359.                 email: reda@cse.uconn.edu
  42360.  
  42361. STREAM D:
  42362. ========
  42363.  Maria E. Orlowska
  42364.  The University of Queensland, Australia
  42365.  Email: maria@cs.uq.oz.au
  42366.  Fax:  61-7-365 1999
  42367.  
  42368.  Email Contact: Mike Herman
  42369.                 Laurentian University, Canada
  42370.                 Fax: (705) 673-6591
  42371.                 email: mwherman@nickel.laurentian.ca
  42372.  
  42373. STREAM E:
  42374. ========
  42375.  Shing-Tsaan Huang
  42376.  National Tsing-Hua University, Taiwan
  42377.  Email: sthuang@nthu.edu.tw
  42378.  Fax: 886-35-723694
  42379.  
  42380.  Email Contact: Ken Barker
  42381.                 University of Calgary, Canada
  42382.                 Fax:  (403) 284-4707
  42383.                 email: barkerk@cpsc.ucalgary.ca
  42384.  
  42385.  
  42386.  
  42387. Program Committee:
  42388. =================
  42389.  
  42390. Chair: David Krumme, Tufts University, USA
  42391. J. Abello, Texas A&M U., USA
  42392. O. Abou-Rabia, Laurentian U., Canada
  42393. K. Abrahamson, E. Carolina U., USA
  42394. M. Aoyama, Fujitsu Limited, Japan
  42395. L.G. Birta, U. Ottawa, CANADA
  42396. J.P. Black, U. Waterloo, Canada
  42397. D.L. Carver, Louisiana State U., USA
  42398. C.-C. Chan, U. Akron, USA
  42399. S. Chen, U. Illinois, Chicago, USA
  42400. V. Dahl, Simon Fraser U., Canada
  42401. S.K. Das, U. North Texas, USA
  42402. A.K. Datta, U. Nevada, Las Vegas, USA
  42403. W.A. Doeringer, IBM Res. Lab., Zurich, Switzerland
  42404. D.-Z. Du, U. Minnesota, USA
  42405. E. Eberbach, Acadia University, Canada
  42406. A.A. El-Amawy, Louisiana State U., USA
  42407. D.W. Embley, Brigham Young U., USA
  42408. W.W. Everett, AT&T Bell Labs., USA
  42409. A. Ferreira, CNRS-LIP, France 
  42410. I. Guessarian, Paris 6 U., France
  42411. J. Harms, U. Alberta, Canada
  42412. S.Y. Itoga, U. Hawaii, USA
  42413. J.W. Jury, Trent U., Canada
  42414. M. Kaiserswerth, IBM Res. Lab., Zurich, Switzerland
  42415. M. Li, U. Waterloo, Canada
  42416. M.K. Neville, Northern Arizona U., USA
  42417. P. Nijkamp, Free U. Amsterdam, The Netherlands
  42418. K. Psarris, Ohio U., USA
  42419. P.P. Shenoy, U. Kansas, USA
  42420. G. Sindre, Norwegian Inst. Technology, Norway
  42421. R. Slowinski, Technical U. Poznan, Poland
  42422. M.A. Suchenek, Cal. State U., Dominguez Hills, USA
  42423. V. Sunderam, Emory U., USA
  42424. R.W. Swiniarski, San Diego State U., USA
  42425. A.M. Tjoa, U. Vienna, Austria
  42426. R. Topor, Griffith U., Australia
  42427. A.A. Toptsis, York U., Canada 
  42428. C. Tsatsoulis, U. Kansas, USA
  42429. W.D. Wasson, U. New Brunswick, Canada
  42430. L. Webster, NASA/Johnson Space Center, USA
  42431. E.A. Yfantis, U. Nevada, Las Vegas, USA
  42432. Y. Zhang, U. Queensland, Australia
  42433.  
  42434.  
  42435. =*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=
  42436.  
  42437. DEADLINES
  42438.  
  42439. Jan. 17, 1994 (Mon) Paper submission deadline to the appropriate Stream Chair
  42440. Mar. 15, 1994 (Tue) Email Notification of acceptance
  42441. May 26, 1994 (At the conf.) final version due
  42442. =========================================================================
  42443.  
  42444. For further information, please contact:
  42445.  
  42446. Richard Hurley
  42447. Organizing Committee Chairman
  42448. Computer Studies Program
  42449. Trent University
  42450. Peterborough, ON, Canada
  42451. K9J 7B8
  42452.  
  42453. Phone:  (705) 748-1542
  42454. Fax:    (705) 748-1625
  42455. Email: icci@flame1.trentu.ca
  42456.  
  42457.  
  42458. Approved: parallel@hubcap.clemson.edu
  42459. Follow-up: comp.parallel
  42460. Path: bounce-back
  42461. Newsgroups: comp.parallel
  42462. From: kgatlin@galaxy.csc.calpoly.edu (Kang Su Gatlin)
  42463. Subject: Good Schools in Parallel Computing
  42464. Date: Sun, 05 Dec 93 19:00:31 GMT
  42465. Organization: Computer Science Department, Cal Poly SLO
  42466. Nntp-Posting-Host: galaxy.csc.calpoly.edu
  42467. Apparently-To: comp-parallel@ucsd.edu
  42468.  
  42469. [Check out the Schools listings in Parlib
  42470. How to Get Information from Parlib:
  42471.  
  42472. The parlib login on hubcap.clemson.edu is a mail server using the netlib
  42473. software. To get the instructions, send the following mail message:
  42474.  
  42475.         shell> mail parlib@hubcap.clemson.edu
  42476.                Subject:
  42477.                send index
  42478.                .
  42479.         shell> ....
  42480. ]
  42481.  
  42482.  
  42483. I am writing in the hopes that someone here may have opinions on the top
  42484. grad schools in the US in the field of parallel algorithms.  Is there a
  42485. certain school that your company recruits from or has a good reputation?
  42486. Or does anybody know how these four schools stack up in this area:
  42487. UCSB
  42488. UCSD
  42489. UCLA
  42490. Stanford
  42491.  
  42492. Thanks for the advice, I'm using it to help myself decide where to further
  42493. my education.
  42494.  
  42495. Kang Su Gatlin
  42496.  
  42497. Approved: parallel@hubcap.clemson.edu
  42498. Follow-up: comp.parallel
  42499. Path: bounce-back
  42500. Newsgroups: comp.parallel,comp.arch
  42501. From: hus@msuvx1.memst.edu
  42502. Subject: Connect mouse to parallel?
  42503. Message-ID: <1993Dec5.215447.12636@msuvx1.memst.edu>
  42504. Date: 5 Dec 93 21:54:47 -0500
  42505. Organization: Memphis State University
  42506.  
  42507. Can I connect my mouse to the parallel port?  How?
  42508. Thanks.   
  42509.  
  42510. hus
  42511.  
  42512. Approved: parallel@hubcap.clemson.edu
  42513. Follow-up: comp.parallel
  42514. Path: bounce-back
  42515. From: djb1@ukc.ac.uk
  42516. Newsgroups: comp.parallel,comp.sys.transputer,comp.parallel.pvm
  42517. Subject: Transputer, occam and parallel computing archive: NEW FILES
  42518. Organization: Computing Lab, University of Kent at Canterbury, UK.
  42519. Summary: New files. See ADMIN article for other info.
  42520. Keywords: transputer, occam, parallel, archive, anonymous ftp
  42521.  
  42522. This is the new files list for the Transputer, occam and parallel
  42523. computing archive.  Please consult the accompanying article for
  42524. administrative information and the various ways to access the files.
  42525. [For experts: anonymous ftp from unix.hensa.ac.uk in /parallel]
  42526.  
  42527. Dave
  42528.  
  42529.  
  42530. NEW FEATURES
  42531. ~~~~~~~~~~~~
  42532.  
  42533. * The complete contents of the INMOS (US) email archive server
  42534.   Contains the check programs, iservers, software bulletins and other
  42535.   programs.  8 Megabytes of files provided by Hugh Thomas of INMOS US.
  42536.   Many thanks to Hugh for this.
  42537.   
  42538. * "Networks, Routers and Transputers" book as PostScript.
  42539.   See /parallel/books/IOS/nrat/Overview for details.
  42540.  
  42541. * INMOS Preliminary Datasheets for the C101 and C104 DS-Link processors
  42542.   See /parallel/documents/inmos/ieee-hic/data/C101.ps.Z (330K) and
  42543.   C104.ps.Z (1.3M)
  42544.  
  42545. * FULL TEXT INDEX
  42546.  
  42547.   A nightly full text index is now being generated, of all the individual
  42548.   Index files.  This is probably the best way to find something by 'grepping'
  42549.   the file although it is very large.
  42550.  
  42551.     /parallel/index/FullIndex.ascii     283044 bytes
  42552.     /parallel/index/FullIndex.ascii.Z    90085 bytes    (compressed)
  42553.     /parallel/index/FullIndex.ascii.gz   62922 bytes    (gzipped)
  42554.  
  42555.  
  42556. NEW FILES since 12th November 1993 (newest first)
  42557. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  42558.  
  42559. /parallel/documents/inmos/archive-server
  42560.     The complete contents of the INMOS (US) email archive server
  42561.     (8 Megabytes of files) provided by Hugh Thomas of INMOS US.
  42562.     Many thanks to Hugh for this.
  42563.  
  42564. 25th November 1993
  42565.  
  42566. /parallel/software/emacs-lisp/occam-mode.el
  42567.     Improved version of occam2 mode for GNU emacs by Jared Saia
  42568.     <saia@as05.itl.atr.co.jp> with "pretty good automatic indentation
  42569.     of occam code by syntax, auto capitilization of Occam keywords, the
  42570.     ability to comment regions of occam code in a way that the compiler
  42571.     accepts and some other random things."
  42572.  
  42573. /parallel/software/emacs-lisp/old-occam-mode.el
  42574.     Older version of above.
  42575.  
  42576. 24th November 1993
  42577.  
  42578. [Note to net.police: this is for informational purposes, not advertising]
  42579.  
  42580. /parallel/documents/vendors/APR/ProductInfo/
  42581.     Product information from ftp site netcom.com:/pub/forge/ProductInfo
  42582.  
  42583. /parallel/documents/vendors/APR/ProductInfo/README
  42584.     Contents
  42585.  
  42586. /parallel/documents/vendors/APR/ProductInfo/dpf.man.txt
  42587.     FORGE Magic Distributed Memory Parallelizer dpf manual page
  42588.  
  42589. /parallel/documents/vendors/APR/ProductInfo/dpf_datasheet.txt
  42590.     FORGE Magic Distributed Memory Parallelizer dpf Datasheet
  42591.  
  42592. /parallel/documents/vendors/APR/ProductInfo/forge90_datasheet.txt
  42593.     Interactive FORGE 90 Parallelizer Datasheet
  42594.  
  42595. /parallel/documents/vendors/APR/ProductInfo/forgex_datasheet.txt
  42596.     FORGE Explorer Interactive Fortran Browser forgex Datasheet
  42597.  
  42598. /parallel/documents/vendors/APR/ProductInfo/magic_datasheet.txt
  42599.     FORGE Magic Automatic Parallelizers Intro Datasheet
  42600.  
  42601. /parallel/documents/vendors/APR/ProductInfo/news.txt
  42602.     Latest News from APR (November 1993)
  42603.  
  42604. /parallel/documents/vendors/APR/ProductInfo/pricing.txt
  42605.     (nearly empty)
  42606.  
  42607. /parallel/documents/vendors/APR/ProductInfo/xhpf.man.txt
  42608.     FORGE Magic HPF Parallelizer xhpf manual page
  42609.  
  42610. /parallel/documents/vendors/APR/ProductInfo/xhpf_datasheet.txt
  42611.     FORGE Magic HPF Parallelizer xhpf Datasheet
  42612.  
  42613. /parallel/conferences/concurrency-in-computational-logic
  42614.     Call for papers for Workshop on Concurrency in Computational
  42615.     Logic being held on 13th Decemeber 1993 at the Department of
  42616.     Computer Science, City University, London, United Kingdom.
  42617.     Deadline for papers: 30th November 1993.
  42618.  
  42619. /parallel/documents/vendors/formal-systems/fdr.announce
  42620.     Announcement of availaility of academic licences for FDR
  42621.     (Failures Divergence Refinement) tool.  The distribution is
  42622.     available to educational institutions for a nominal media
  42623.     charge.  It is a refinement checking tool for CSP.
  42624.  
  42625. /parallel/conferences/hpcn-europe-94-update
  42626.     Updated call for papers and details of the European Conference
  42627.     on High-Performance Computing and Networking (HPCN Europe) 1994
  42628.     being held from April 18-20 1994 at the Sheraton Hotel & Towers
  42629.     Munich, Germany.  Deadlines: Papers: 30th November 1993;
  42630.     Posters: 30th November 1993.
  42631.  
  42632. /parallel/conferences/alp-plilp94.ps.Z
  42633. /parallel/conferences/alp-plilp94.tex
  42634. /parallel/conferences/alp-plilp94.txt
  42635.     Call for papers for ALP'94 and PLILP'94 - the Fourth
  42636.     International Conference on Algebraic and Logic Programming and
  42637.     the Sixth International Symposium on Programming Language
  42638.     Implementation and Logic Programming being held from 14th-16th
  42639.     September 1994 at Madrid, Spain.  Deadlines:  Papers: 28th
  42640.     February 1994;  Acceptance: 10th May 1994; Final copy: 20th
  42641.     June 1994.  
  42642.  
  42643. /parallel/user-groups/hpff/hpff-II
  42644.     Call for attendance at the High Performance Fortran Forum II
  42645.     Kickoff Meeting being held from 13th-14th January 1994 at the
  42646.     Wyndham Greenspoint Hotel, Houston, Texas, USA.
  42647.  
  42648. /parallel/documents/misc/X3H5-standard-comments
  42649.     Call for comments on the proposed ANSI standard: X3.252.199x,
  42650.     Parallel Processing Model for High Level Programming Languages
  42651.  
  42652. /parallel/conferences/euromicro-workshop-on-par+dist-processing
  42653.     Revised details of registration and programme of the 2nd Euromicro
  42654.     Workshop on Parallel and Distributed processing from January
  42655.     26-28th 1994 at the University of Malaga, Spain.
  42656.  
  42657. /parallel/conferences/ieee-workshop-fault-tolerant-par-dist-systems
  42658.     Call for papers for 1994 IEEE Workshop on Fault-Tolerant
  42659.     Parallel and Distributed Systems being held from 13th-14th June
  42660.     1994 at College Station, Texas, USA sponsored by the IEEE
  42661.     Computer Society Technical Committee on Fault-Tolerant
  42662.     Computing in cooperation with IFIP Working Group 10.4 and Texas
  42663.     A&M University and in conjunction with FTCS-24.  Deadlines:
  42664.     Papers: 18th February 1994; Acceptance: 15th April 1994;
  42665.     Revised Paper: 15th August 1994; Panel Proposals: 15th March
  42666.     1994
  42667.  
  42668. 23rd November 1993
  42669.  
  42670. /parallel/reports/gatech/ossurvey.announcement
  42671.     Announcement of report below and call for comments by
  42672.     Bodhisattwa Mukherjee (bodhi@cc.gatech.edu>
  42673.  
  42674. /parallel/reports/gatech/ossurvey.ps.Z
  42675.     A Survey of Multiprocessor Operating System Kernels (DRAFT) by
  42676.     Bodhisattwa Mukherjee (bodhi@cc.gatech.edu>, Karsten Schwan
  42677.     <schwan@cc.gatech.edu> and
  42678.     Prabha Gopinath <gopinath.prabha@ssdc.honeywell.com>
  42679.     ABSTRACT: 
  42680.       Multiprocessors have been accepted as vehicles for improved
  42681.       computing speeds, cost/performance, and enhanced reliability
  42682.     or availability.  However, the added performance requirements
  42683.     of user programs and functional capabilities of parallel
  42684.     hardware introduce new challenges to operating system design
  42685.     and implementation.
  42686.       This paper reviews research and commercial developments in
  42687.     multiprocessor operating system kernels from the late 1970's to
  42688.     the early 1990's.  The paper first discusses some common
  42689.     operating system structuring techniques and examines the
  42690.     advantages and disadvantages of using each technique. It then
  42691.     identifies some of the major design goals and key issues in
  42692.     multiprocessor operating systems.  Issues and solution
  42693.     approaches are illustrated by review of a variety of research
  42694.     or commercial multiprocessor operating system kernels.
  42695.  
  42696. /parallel/conferences/par-high-perf-apps
  42697.     Call for attendance at the Conference and Tutorial on Parallel
  42698.     High-Performance Applications being held from 15th-17th December 1993
  42699.     at KTH, Stockholm, Sweden.  Registration before 1st December 1993.
  42700.  
  42701. /parallel/reports/announcements/update-propogation-in-galactica-net
  42702.     Announcement of Technical Report available for FTP:
  42703.     "Update Propagation in the Galactica Net Distributed Shared Memory
  42704.     Architecture" by A. Wilson, R. LaRowe, R. Ionta, R. Valentino, B. Hu,
  42705.     P. Breton and P. Lau of Center For High Performance Computing of
  42706.     Worcester Polytechnic Institute, Marlborough, MA, USA.
  42707.  
  42708. /parallel/documents/vendors/APR/magic-dm-auto-parallelization-tools
  42709.     Announcement of MAGIC series of automatic parallelizing
  42710.     pre-compilers, FORGE Magic/DM for distributed memory systems and
  42711.     clustered workstations, and FORGE Magic/SM for shared memory parallel
  42712.     systems.
  42713.  
  42714. /parallel/documents/vendors/APR/parallelizing-products
  42715.     Details of APR parallelizing products (FORGE 90, xHPF77)
  42716.  
  42717. /parallel/documents/misc/DIMACS-implementation-challenge-III
  42718.     Call for participation in the Third DIMACS Internations Algorithm
  42719.     Implementation Challenge.  This will take place between November 1993
  42720.     and September 1994 by carrying out research projects related to the
  42721.     problem areas specified to present research papers at a DIMACS
  42722.     workshop in October 1994.
  42723.  
  42724. /parallel/documents/misc/faster-messaging-shmem-multiprocs-video
  42725.     Details of Video tape on "Faster Messaging in Shared-Memory
  42726.     Multiprocessors", Optimizing Memory-Based Messaging for Scalable
  42727.     Shared Memory Multiprocessor Architectures, 8th September 1993, 71
  42728.     minutes by Bob Kutter and David Cheriton.
  42729.  
  42730. /parallel/user-groups/cray/conference-spring-1994
  42731.     Call for papers and details of Cray Users Group Spring '94 conference
  42732.     being held from 14th-18th March 1994 at San Diego, California, USA.
  42733.     Deadlines: Papers and Posters: 10th December 1994.
  42734.  
  42735. 22nd November 1993
  42736.  
  42737. /parallel/documents/vendors/intel/cmu-intel-iWarp-ftp-site
  42738.     Details of FTP site for publications relating to the Carnegie Mellon/
  42739.     Intel SSD built iWarp parallel computers.
  42740.  
  42741. /parallel/faqs/cm5-intel-mailing-lists
  42742.     Details of NAS/NASA mailing lists for the Thinking Machines CM5,
  42743.     Intel Paragon and Intel iPSC/860 machines.
  42744.  
  42745. [ Added new area: /parallel/documents/benchmarks and moved other ]
  42746. [ benchmark-related documents here.                              ]
  42747.  
  42748. /parallel/documents/benchmarks/PAR93-SMP
  42749.     Announcement of PAR93 -- a benchmark suite designed to measure
  42750.     cache based RISC SMP system performance using well behaved
  42751.     codes that parallelize automatically.
  42752.  
  42753. /parallel/software/announcements/distributed-c-development-environment
  42754.     Details of the Distributed C Development Environment developed at
  42755.     Technische Universitaet Muenchen, Germany by a group under 
  42756.     Prof. Dr. J. Eickel.  Available for networks of UNIX computers.
  42757.     Runs on Sun SPARCstations (SunOS), Hewlett Packard workstations
  42758.     (HP/UX), IBM workstations (AIX), Convex supercomputers (ConvexOS),
  42759.     IBM Workstations (AIX) and homogeneous and heterogeneous networks of
  42760.     the systems as mentioned above.  Public domain software.
  42761.  
  42762. /parallel/courses/parasoft-par-prog-course-linda
  42763.     "Introduction to Parallel Programming with Linda" course given by
  42764.     ParaSoft Corporation on 9th December 1993 at Florida State University,
  42765.     Tallahassee, Florida, USA immediately after the Cluster Workshop '93.
  42766.  
  42767. 19th November 1993
  42768.  
  42769. /parallel/conferences/app-par-geoscience
  42770.     Call for papers for the European Geophysical Society XIX General
  42771.     Assembly symposium session EGS2 on Applications of Parallel
  42772.     Processing in Geoscience being held from 25th-29th April 1994 in
  42773.     Gernoble, France.  Deadlines:  Abstracts: 1st January 1994;
  42774.     Young Scientist and East European Awards: 15th December 1994.
  42775.  
  42776. /parallel/conferences/spaa94
  42777.     Call for papers for the 6th Annual ACM Symposium on Parallel
  42778.     Algorithms and Architectures being held from 27th-29th June 1994
  42779.     at Cape May, New Jersey, USA sponsored by the ACM Special Interest
  42780.     Groups for Automata and Computability Theory (SIGACT) and Computer
  42781.     Architecture (SIGARCH) and organized in cooperation with the European
  42782.     Association for Theoretical Computer Science (EATCS).  Deadlines:
  42783.     Papers: 21st January 1994; Acceptance: 15th March 1994;
  42784.     Final-copy: 8th April 1994.
  42785.  
  42786. /parallel/books/introductory-parallel-books
  42787.     A summary of responses to a query about introductory books
  42788.     for parallel programming/algorithms.  Replies by
  42789.     David Bader <dbader@eng.umd.edu> and
  42790.     Jason Moore <moorej@research.CS.ORST.EDU>
  42791.  
  42792. 18th November 1993
  42793.  
  42794.  
  42795. OTHER HIGHLIGHTS
  42796. ~~~~~~~~~~~~~~~~
  42797.  
  42798.   * occam 3 REFERENCE MANUAL (draft)
  42799.     /parallel/documents/occam/manual3.ps.Z
  42800.  
  42801.       By Geoff Barrett of INMOS - freely distributable but copyrighted by
  42802.       INMOS and is a full 203 page book in the same style of the Prentice
  42803.       Hall occam 2 reference manual.  Thanks a lot to Geoff and INMOS for
  42804.       releasing this.
  42805.  
  42806.   * TRANSPUTER COMMUNICATIONS (WoTUG JOURNAL) FILES
  42807.     /parallel/journals/Wiley/trcom/example1.tex
  42808.     /parallel/journals/Wiley/trcom/example2.tex
  42809.     /parallel/journals/Wiley/trcom/trcom.bst
  42810.     /parallel/journals/Wiley/trcom/trcom01.sty
  42811.     /parallel/journals/Wiley/trcom/trcom02.sty
  42812.     /parallel/journals/Wiley/trcom/trcom02a.sty
  42813.     /parallel/journals/Wiley/trcom/transputer-communications.cfp
  42814.     /parallel/journals/Wiley/trcom/Index
  42815.     /parallel/journals/Wiley/trcom/epsfig.sty
  42816.  
  42817.       LaTeX (.sty) and BibTeX (.bst) style files and examples of use for
  42818.       the forthcoming Wiley journal - Transputer Communications,
  42819.       organised by the World occam and Transputer User Group (WoTUG).
  42820.       See transputer-communications.cfp for details on how to submit a paper.
  42821.  
  42822.   * FOLDING EDITORS: origami, folding micro emacs
  42823.     /parallel/software/folding-editors/fue-original.tar.Z
  42824.     /parallel/software/folding-editors/fue-ukc.tar.Z
  42825.     /parallel/software/folding-editors/origami.zip
  42826.     /parallel/software/folding-editors/origami.tar.Z
  42827.  
  42828.       Two folding editors - origami and folding micro-emacs traditionally
  42829.       used for occam programming environments due to the indenting rules.
  42830.       Origami is an updated version of the folding editor distribution
  42831.       as improved by Johan Sunter of Twente, Netherlands.  fue* are the
  42832.       original and UKC improved versions of folding micro-emacs.
  42833.  
  42834.   * T9000 SYSTEMS WORKSHOP REPORTS
  42835.     /parallel/reports/wotug/T9000-systems-workshop/*
  42836.  
  42837.       The reports from the T9000 Systems Workshop held at the
  42838.       University of Kent at Canterbury in October 1992.  It
  42839.       contains ASCII versions of the slides given then with the
  42840.       permission of the speakers from INMOS.  Thanks to Peter
  42841.       Thompson and Roger Shepherd for this.
  42842.       Subjects explained include the communications architecture
  42843.       and low-level communications, the processor pipeline and
  42844.       grouper, the memory system and how errors are handled.
  42845.  
  42846.   * THE PETER WELCH PAPERS
  42847.     /parallel/papers/ukc/peter-welch
  42848.       Eleven papers by Professor Peter Welch and others of the
  42849.       Parallel Processing Group at the Computing Laboratory,
  42850.       University of Kent at Canterbury, England related to occam,
  42851.       the Transputer and other things.  Peter is Chairman of the
  42852.       World occam and Transputer User Group (WoTUG)
  42853.  
  42854.   * ISERVERS
  42855.     /parallel/software/inmos/iservers
  42856.       Many versions of the iserver- the normal version, one for
  42857.       Windows (WIserver), one for etherneted PCs (PCServer) and one
  42858.       for Meiko hardware.
  42859.  
  42860.   * MIRROR OF PARLIB
  42861.     /parallel/parlib
  42862.       Mirror of the PARLIB archive maintained by Steve Stevenson,
  42863.       the moderator of the USENET group comp.parallel.
  42864.  
  42865.   * UKC REPORTS
  42866.     /pub/misc/ukc.reports
  42867.       The internal reports of the University of Kent at Canterbury
  42868.       Computing Laboratory.  Many of these contain parallel computing
  42869.       research.
  42870.  
  42871.   * NETLIB FILES
  42872.     /netlib/p4
  42873.     /netlib/pvm
  42874.     /netlib/pvm3
  42875.     /netlib/picl
  42876.     /netlib/paragraph
  42877.     /netlib/maspar
  42878.       As part of the general unix.hensa.ac.uk archive, there is a full
  42879.       mirror of the netlib files for the above packages (and the others
  42880.       too).
  42881.  
  42882. Approved: parallel@hubcap.clemson.edu
  42883. Follow-up: comp.parallel
  42884. Path: bounce-back
  42885. Newsgroups: comp.parallel
  42886. Newsgroups: comp.parallel,comp.sys.transputer,comp.parallel.pvm
  42887. Subject: Transputer, occam and parallel computing archive: ADMIN
  42888. Organization: Computing Lab, University of Kent at Canterbury, UK.
  42889. Summary: See NEW FILES article for details of new files
  42890. Keywords: transputer, occam, parallel, archive, anonymous ftp
  42891.  
  42892. This is the administrative information article for the Transputer,
  42893. occam and parallel computing archive.  Please consult the accompanying
  42894. article for details of the new files and areas.
  42895.  
  42896. In the last three weeks I've added another 7 megabytes of
  42897. files to the archive at unix.hensa.ac.uk in /parallel.  It currently
  42898. contains over 73 Mbytes of freely distributable software and documents,
  42899. in the Transputer, occam and parallel computing subject area.
  42900.  
  42901.  
  42902. STATISTICS
  42903. ~~~~~~~~~~
  42904. >4420 users accessed archive (1010 more than last time)
  42905. >3250 Mbytes transfered (1590MB more)
  42906.   since the archive was started in early May.
  42907.  
  42908. Top 10 files accessed, excluding Index files
  42909.   867 /parallel/README
  42910.   424 /parallel/pictures/T9000-schematic.ps.Z
  42911.   390 /parallel/index/ls-lR*
  42912.   356 /parallel/reports/misc/soft-env-net-report.ps.Z
  42913.   326 /parallel/documents/inmos/occam/manual3.ps.Z
  42914.   285 /parallel/books/ios/nrat/Overview
  42915.   276 /parallel/books/ios/nrat/Chapter10a.ps.Z
  42916.   258 /parallel/books/ios/nrat/Chapter1.ps.Z
  42917.   255 /parallel/Changes
  42918.   250 /parallel/books/ios/nrat/Introduction.ps.Z
  42919.  
  42920. Unsurprisingly - the Networks, Routers and Transputers books has leapt into
  42921. the top ten and accounts for a large proportion of the 1.3 gigabytes of
  42922. files transferred.  Heres a breakdown of the chapters by popularity:
  42923.  
  42924.   334 /parallel/books/ios/nrat/Chapter10a.ps.Z
  42925.   328 /parallel/books/ios/nrat/Overview
  42926.   316 /parallel/books/ios/nrat/Chapter1.ps.Z
  42927.   302 /parallel/books/ios/nrat/Introduction.ps.Z
  42928.   302 /parallel/books/ios/nrat/Chapter10b.ps.Z
  42929.   300 /parallel/books/ios/nrat/Chapter10c.ps.Z
  42930.   286 /parallel/books/ios/nrat/Chapter10d.ps.Z
  42931.   271 /parallel/books/ios/nrat/Appendices.ps.Z
  42932.   258 /parallel/books/ios/nrat/Chapter2.ps.Z
  42933.   246 /parallel/books/ios/nrat/Chapter3.ps.Z
  42934.   243 /parallel/books/ios/nrat/Chapter11.ps.Z
  42935.   238 /parallel/books/ios/nrat/Chapter8.ps.Z
  42936.   235 /parallel/books/ios/nrat/Chapter7.ps.Z
  42937.   235 /parallel/books/ios/nrat/Chapter6a.ps.Z
  42938.   234 /parallel/books/ios/nrat/Chapter4.ps.Z
  42939.   233 /parallel/books/ios/nrat/Chapter5.ps.Z
  42940.   233 /parallel/books/ios/nrat/Chapter6b.ps.Z
  42941.   221 /parallel/books/ios/nrat/Chapter9.ps.Z
  42942.  
  42943. The two most popular chapters are Chapter 1 which is the "Transputers
  42944. and Routers:  Components for Concurrent Machines" and Chapter 10 which
  42945. is "A Generic Architecture for ATM Systems".
  42946.  
  42947.  
  42948. WHERE IS IT?
  42949. ~~~~~~~~~~~
  42950. At the HENSA (Higher Education National Software Archive) UNIX
  42951. archive.  The HENSA/UNIX archive is accessible via an interactive
  42952. browsing facility, called fbr as well as email, DARPA ftp, gopher and
  42953. NI-FTP (Blue Book) services.  For details, see below.
  42954.  
  42955.  
  42956. HOW DO I FIND WHAT I WANT?
  42957. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  42958. The files are all located in /parallel and each directory contains a
  42959. short Index file of the contents.
  42960.  
  42961. If you want to check what has changed in between these postings, look
  42962. at the /parallel/Changes file which contains the new files added.
  42963.  
  42964. There is also a full text index available of all the files in
  42965. /parallel/index/FullIndex.ascii but be warned - it is very large (over 200K).
  42966. Compressed and gzipped versions are in the same directory.
  42967.  
  42968. For those UNIX dweebs, there are output files of ls-lR in
  42969. /parallel/index/ls-lR along with compressed and gzipped versions too.
  42970.  
  42971.  
  42972. HOW DO I CONTACT IT?
  42973. ~~~~~~~~~~~~~~~~~~~~
  42974.  
  42975. There are several ways to access the files which are described below
  42976. - log in to the archive to browse files and retrieve them by email;
  42977. transfer files by DARPA FTP over JIPS or use Blue Book NI-FTP.
  42978.  
  42979.  
  42980. Logging in:
  42981. ~~~~~~~~~~~
  42982. JANET X.25 network:
  42983.     call uk.ac.hensa.unix (or 000049200900 if you do not have NRS)
  42984.  
  42985. JIPS: 
  42986.     telnet unix.hensa.ac.uk    (or 129.12.21.7)
  42987.  
  42988. Once connected, use the login name 'archive' and your email address to
  42989. enter. You will then be placed inside the fbr restricted shell. Use the
  42990. help command for up to date details of what commands are available.
  42991.  
  42992.  
  42993. Transferring files by FTP
  42994. ~~~~~~~~~~~~~~~~~~~~~~~~
  42995. DARPA ftp from JIPS/the internet:
  42996.     site: unix.hensa.ac.uk (or 129.12.21.7)
  42997.         login: anonymous
  42998.         password: <your email address>
  42999.                     
  43000. Use the 'get' command to transfer a file from the remote machine to
  43001. the local one.  When transferring a binary file it is important to
  43002. give the command 'binary' before initiating the transfer.  For more
  43003. details of the 'ftp' command, see the manual page by typing 'man ftp'.
  43004.  
  43005.  
  43006. The NI-FTP (Blue Book) request over JANET
  43007.         <ARCHIVE>path-of-file  from uk.ac.hensa.unix
  43008.         Username: guest
  43009.         Password: <your email address>
  43010.                     
  43011. The program to do an NI-FTP transfer varies from site to site but is
  43012. usually called hhcp or fcp.  Ask your local experts for information.
  43013.  
  43014.  
  43015. Transferring files by Email
  43016. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  43017. To obtain a specific file email a message to
  43018.       archive@unix.hensa.ac.uk
  43019. containing the single line
  43020.       send path-of-file
  43021. or 'help' for more information.
  43022.  
  43023.  
  43024. Browsing and transferring by gopher
  43025. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  43026. Starting at the Root Minnesota Gopher gopher, select the following entries:
  43027.  
  43028.     8.  Other Gopher and Information Servers/
  43029.  
  43030.     5.  Europe/
  43031.  
  43032.     37. United Kingdom/
  43033.  
  43034.     15. HENSA unix (National software archive, University of Kent), (UK)/
  43035.  
  43036.     3.  The UNIX HENSA Archive at the University of Kent at Canterbury/
  43037.  
  43038.     9.  Parallel Archive/
  43039.  
  43040. and browse the archive as normal.  [The numbers are very likely to change]
  43041. The short descriptions are abbreviated to fit on an 80 column display
  43042. but the long ones can always be found under 'General Information.' (the
  43043. Index files).  Updates to the gopher tree follow a little behind the
  43044. regular updates.  We are also working on the software that generates so
  43045. please bear with us if some of the areas are incomplete.
  43046.  
  43047.  
  43048. COMING SOON
  43049. ~~~~~~~~~~~
  43050. A better formatted bibliograpy of the IOS press (WoTUG, NATUG et al) books.
  43051. A HUGE bibliography of occam papers, PhD theses and publications - currently
  43052.   about 2000 entries.
  43053. A freely distributable occam compiler for workstations.
  43054. A couple of free occam compiler for transputers.
  43055.  
  43056.  
  43057. DONATIONS
  43058. ~~~~~~~~~
  43059. Donations are very welcome.  We do not allow uploading of files directly
  43060. but if you have something you want to donate, please contact me.
  43061.  
  43062.  
  43063. Dave Beckett
  43064.  
  43065. Computing Laboratory, University of Kent at Canterbury, UK, CT2 7NF
  43066. Tel: [+44] (0)227 764000 x7684  Fax: [+44] (0)227 762811  Email: djb1@ukc.ac.uk
  43067.  
  43068. Approved: parallel@hubcap.clemson.edu
  43069. Follow-up: comp.parallel
  43070. Path: bounce-back
  43071. Newsgroups: comp.parallel
  43072. Newsgroups: comp.parallel,comp.sys.transputer,comp.parallel.pvm
  43073. Subject: Transputer, occam and parallel computing archive: ADMIN
  43074. Organization: Computing Lab, University of Kent at Canterbury, UK.
  43075. Summary: See NEW FILES article for details of new files
  43076. Keywords: transputer, occam, parallel, archive, anonymous ftp
  43077.  
  43078. This is the administrative information article for the Transputer,
  43079. occam and parallel computing archive.  Please consult the accompanying
  43080. article for details of the new files and areas.
  43081.  
  43082. In the last three weeks I've added another 7 megabytes of
  43083. files to the archive at unix.hensa.ac.uk in /parallel.  It currently
  43084. contains over 73 Mbytes of freely distributable software and documents,
  43085. in the Transputer, occam and parallel computing subject area.
  43086.  
  43087.  
  43088. STATISTICS
  43089. ~~~~~~~~~~
  43090. >4420 users accessed archive (1010 more than last time)
  43091. >3250 Mbytes transfered (1590MB more)
  43092.   since the archive was started in early May.
  43093.  
  43094. Top 10 files accessed, excluding Index files
  43095.   867 /parallel/README
  43096.   424 /parallel/pictures/T9000-schematic.ps.Z
  43097.   390 /parallel/index/ls-lR*
  43098.   356 /parallel/reports/misc/soft-env-net-report.ps.Z
  43099.   326 /parallel/documents/inmos/occam/manual3.ps.Z
  43100.   285 /parallel/books/ios/nrat/Overview
  43101.   276 /parallel/books/ios/nrat/Chapter10a.ps.Z
  43102.   258 /parallel/books/ios/nrat/Chapter1.ps.Z
  43103.   255 /parallel/Changes
  43104.   250 /parallel/books/ios/nrat/Introduction.ps.Z
  43105.  
  43106. Unsurprisingly - the Networks, Routers and Transputers books has leapt into
  43107. the top ten and accounts for a large proportion of the 1.3 gigabytes of
  43108. files transferred.  Heres a breakdown of the chapters by popularity:
  43109.  
  43110.   334 /parallel/books/ios/nrat/Chapter10a.ps.Z
  43111.   328 /parallel/books/ios/nrat/Overview
  43112.   316 /parallel/books/ios/nrat/Chapter1.ps.Z
  43113.   302 /parallel/books/ios/nrat/Introduction.ps.Z
  43114.   302 /parallel/books/ios/nrat/Chapter10b.ps.Z
  43115.   300 /parallel/books/ios/nrat/Chapter10c.ps.Z
  43116.   286 /parallel/books/ios/nrat/Chapter10d.ps.Z
  43117.   271 /parallel/books/ios/nrat/Appendices.ps.Z
  43118.   258 /parallel/books/ios/nrat/Chapter2.ps.Z
  43119.   246 /parallel/books/ios/nrat/Chapter3.ps.Z
  43120.   243 /parallel/books/ios/nrat/Chapter11.ps.Z
  43121.   238 /parallel/books/ios/nrat/Chapter8.ps.Z
  43122.   235 /parallel/books/ios/nrat/Chapter7.ps.Z
  43123.   235 /parallel/books/ios/nrat/Chapter6a.ps.Z
  43124.   234 /parallel/books/ios/nrat/Chapter4.ps.Z
  43125.   233 /parallel/books/ios/nrat/Chapter5.ps.Z
  43126.   233 /parallel/books/ios/nrat/Chapter6b.ps.Z
  43127.   221 /parallel/books/ios/nrat/Chapter9.ps.Z
  43128.  
  43129. The two most popular chapters are Chapter 1 which is the "Transputers
  43130. and Routers:  Components for Concurrent Machines" and Chapter 10 which
  43131. is "A Generic Architecture for ATM Systems".
  43132.  
  43133.  
  43134. WHERE IS IT?
  43135. ~~~~~~~~~~~
  43136. At the HENSA (Higher Education National Software Archive) UNIX
  43137. archive.  The HENSA/UNIX archive is accessible via an interactive
  43138. browsing facility, called fbr as well as email, DARPA ftp, gopher and
  43139. NI-FTP (Blue Book) services.  For details, see below.
  43140.  
  43141.  
  43142. HOW DO I FIND WHAT I WANT?
  43143. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  43144. The files are all located in /parallel and each directory contains a
  43145. short Index file of the contents.
  43146.  
  43147. If you want to check what has changed in between these postings, look
  43148. at the /parallel/Changes file which contains the new files added.
  43149.  
  43150. There is also a full text index available of all the files in
  43151. /parallel/index/FullIndex.ascii but be warned - it is very large (over 200K).
  43152. Compressed and gzipped versions are in the same directory.
  43153.  
  43154. For those UNIX dweebs, there are output files of ls-lR in
  43155. /parallel/index/ls-lR along with compressed and gzipped versions too.
  43156.  
  43157.  
  43158. HOW DO I CONTACT IT?
  43159. ~~~~~~~~~~~~~~~~~~~~
  43160.  
  43161. There are several ways to access the files which are described below
  43162. - log in to the archive to browse files and retrieve them by email;
  43163. transfer files by DARPA FTP over JIPS or use Blue Book NI-FTP.
  43164.  
  43165.  
  43166. Logging in:
  43167. ~~~~~~~~~~~
  43168. JANET X.25 network:
  43169.     call uk.ac.hensa.unix (or 000049200900 if you do not have NRS)
  43170.  
  43171. JIPS: 
  43172.     telnet unix.hensa.ac.uk    (or 129.12.21.7)
  43173.  
  43174. Once connected, use the login name 'archive' and your email address to
  43175. enter. You will then be placed inside the fbr restricted shell. Use the
  43176. help command for up to date details of what commands are available.
  43177.  
  43178.  
  43179. Transferring files by FTP
  43180. ~~~~~~~~~~~~~~~~~~~~~~~~
  43181. DARPA ftp from JIPS/the internet:
  43182.     site: unix.hensa.ac.uk (or 129.12.21.7)
  43183.         login: anonymous
  43184.         password: <your email address>
  43185.                     
  43186. Use the 'get' command to transfer a file from the remote machine to
  43187. the local one.  When transferring a binary file it is important to
  43188. give the command 'binary' before initiating the transfer.  For more
  43189. details of the 'ftp' command, see the manual page by typing 'man ftp'.
  43190.  
  43191.  
  43192. The NI-FTP (Blue Book) request over JANET
  43193.         <ARCHIVE>path-of-file  from uk.ac.hensa.unix
  43194.         Username: guest
  43195.         Password: <your email address>
  43196.                     
  43197. The program to do an NI-FTP transfer varies from site to site but is
  43198. usually called hhcp or fcp.  Ask your local experts for information.
  43199.  
  43200.  
  43201. Transferring files by Email
  43202. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  43203. To obtain a specific file email a message to
  43204.       archive@unix.hensa.ac.uk
  43205. containing the single line
  43206.       send path-of-file
  43207. or 'help' for more information.
  43208.  
  43209.  
  43210. Browsing and transferring by gopher
  43211. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  43212. Starting at the Root Minnesota Gopher gopher, select the following entries:
  43213.  
  43214.     8.  Other Gopher and Information Servers/
  43215.  
  43216.     5.  Europe/
  43217.  
  43218.     37. United Kingdom/
  43219.  
  43220.     15. HENSA unix (National software archive, University of Kent), (UK)/
  43221.  
  43222.     3.  The UNIX HENSA Archive at the University of Kent at Canterbury/
  43223.  
  43224.     9.  Parallel Archive/
  43225.  
  43226. and browse the archive as normal.  [The numbers are very likely to change]
  43227. The short descriptions are abbreviated to fit on an 80 column display
  43228. but the long ones can always be found under 'General Information.' (the
  43229. Index files).  Updates to the gopher tree follow a little behind the
  43230. regular updates.  We are also working on the software that generates so
  43231. please bear with us if some of the areas are incomplete.
  43232.  
  43233.  
  43234. COMING SOON
  43235. ~~~~~~~~~~~
  43236. A better formatted bibliograpy of the IOS press (WoTUG, NATUG et al) books.
  43237. A HUGE bibliography of occam papers, PhD theses and publications - currently
  43238.   about 2000 entries.
  43239. A freely distributable occam compiler for workstations.
  43240. A couple of free occam compiler for transputers.
  43241.  
  43242.  
  43243. DONATIONS
  43244. ~~~~~~~~~
  43245. Donations are very welcome.  We do not allow uploading of files directly
  43246. but if you have something you want to donate, please contact me.
  43247.  
  43248.  
  43249. Dave Beckett
  43250.  
  43251. Computing Laboratory, University of Kent at Canterbury, UK, CT2 7NF
  43252. Tel: [+44] (0)227 764000 x7684  Fax: [+44] (0)227 762811  Email: djb1@ukc.ac.uk
  43253.  
  43254. Approved: parallel@hubcap.clemson.edu
  43255. Follow-up: comp.parallel
  43256. Path: bounce-back
  43257. Newsgroups: comp.lang.functional,comp.parallel
  43258. From: schreine@risc.uni-linz.ac.at (Wolfgang Schreiner)
  43259. Subject: Parallel Functional Programming Bibliography (2nd ed)
  43260. Nntp-Posting-Host: melmac.risc.uni-linz.ac.at
  43261. Organization: RISC-Linz, Johannes Kepler University, Linz, Austria
  43262.  
  43263. An updated version of my annotated bibliography on parallel functional 
  43264. programming (including the abstracts of most papers) is available 
  43265. by anonymous ftp from ftp.risc.uni-linz.ac.at (193.170.36.100)
  43266. in pub/reports/parlab/pfpbib2.ps.Z (BibTeX sources in pfpbib2.tar.Z).
  43267.  
  43268. The differences to the previous edition are not large but significant;
  43269. the bibliography now also includes
  43270.  
  43271.   * The nested data-parallel language NESL (thanks to Guy Blelloch, 
  43272.   Carnegie Mellon University),
  43273.  
  43274.   * The parallel equational programming language EPL (thanks to Bolek
  43275.   Szymanski, Rensselaer Polytechnic Institute),
  43276.  
  43277.   * New citations and corrections on SISAL (thanks to Rod Oldehoeft,
  43278.   Colorado State University),
  43279.  
  43280.   * New citations on the skeleton approach (thanks to Fethi A. Rabhi, 
  43281.   University of Hull, and Tore Bratvolt, Heriot-Watt University).
  43282.  
  43283.   * Citations on work done at the GMD in Bonn on parallel functional
  43284.   programming (thanks to Werner Kluge, GMD).
  43285.  
  43286. Any comments, corrections, or supplements are welcome.
  43287.  
  43288. Wolfgang
  43289.  
  43290. --------------------------------------------------------
  43291. Wolfgang Schreiner
  43292. Research Institute for Symbolic Computation (RISC-Linz)
  43293. Johannes Kepler University, A-4040 Linz, Austria
  43294. Tel: +43 7236 3231 66  Fax: +43 7236 3231 30
  43295. Email: schreine@risc.uni-linz.ac.at
  43296. --------------------------------------------------------
  43297.  
  43298. Approved: parallel@hubcap.clemson.edu
  43299. Path: bounce-back
  43300. Newsgroups: comp.parallel,comp.sys.super
  43301. From: dfk@wildcat.dartmouth.edu (David Kotz)
  43302. Subject: I/O on parallel machines
  43303. Message-ID: <CHM6uw.CHn@dartvax.dartmouth.edu>
  43304. Followup-To: comp.sys.super,comp.parallel
  43305. Summary: archives
  43306. Originator: dfk@wildcat.dartmouth.edu
  43307. Keywords: parallel I/O, dartmouth archive, example codes
  43308. Sender: news@dartvax.dartmouth.edu (The News Manager)
  43309. Organization: Dartmouth College, Hanover, NH
  43310. Date: Mon, 6 Dec 1993 13:01:43 GMT
  43311.  
  43312. In article <2dqi2f$3bu@lll-winken.llnl.gov> yates@rafael.llnl.gov (Kim Yates) writes:
  43313.  
  43314.    From: yates@rafael.llnl.gov (Kim Yates)
  43315.    Newsgroups: comp.sys.super
  43316.    Date: 4 Dec 1993 17:40:31 GMT
  43317.  
  43318.    I'm a researcher at Livermore
  43319.    rather loosely associated with the National Storage Laboratory here,
  43320.    and I'm trying to evaluate the current state of the art.
  43321.    I'm interested in all aspects of parallel I/O:
  43322.    hardware, software, performance, programmability, portability,
  43323.    you name it!
  43324.  
  43325. I have a small collection of parallel I/O examples for ftp at
  43326. cs.dartmouth.edu in pub/pario.  There is also a bibliography there
  43327. too.  I hope the community finds this archive useful, and suggests
  43328. contributions to the archive.  We may want to add an "anecdotes"
  43329. section as well.
  43330.  
  43331. dave
  43332.  
  43333. -- 
  43334. -----------------
  43335. Mathematics and Computer Science
  43336. Dartmouth College, 6211 Sudikoff Laboratory, Hanover NH 03755-3510
  43337. email: David.Kotz@Dartmouth.edu    or   dfk@cs.dartmouth.edu
  43338.  
  43339. Approved: parallel@hubcap.clemson.edu
  43340. Path: bounce-back
  43341. Newsgroups: comp.parallel,comp.sys.super
  43342. From: dfk@wildcat.dartmouth.edu (David Kotz)
  43343. Subject: I/O on parallel machines
  43344. Message-ID: <CHM6uw.CHn@dartvax.dartmouth.edu>
  43345. Followup-To: comp.sys.super,comp.parallel
  43346. Summary: archives
  43347. Originator: dfk@wildcat.dartmouth.edu
  43348. Keywords: parallel I/O, dartmouth archive, example codes
  43349. Sender: news@dartvax.dartmouth.edu (The News Manager)
  43350. Organization: Dartmouth College, Hanover, NH
  43351. Date: Mon, 6 Dec 1993 13:01:43 GMT
  43352.  
  43353. In article <2dqi2f$3bu@lll-winken.llnl.gov> yates@rafael.llnl.gov (Kim Yates) writes:
  43354.  
  43355.    From: yates@rafael.llnl.gov (Kim Yates)
  43356.    Newsgroups: comp.sys.super
  43357.    Date: 4 Dec 1993 17:40:31 GMT
  43358.  
  43359.    I'm a researcher at Livermore
  43360.    rather loosely associated with the National Storage Laboratory here,
  43361.    and I'm trying to evaluate the current state of the art.
  43362.    I'm interested in all aspects of parallel I/O:
  43363.    hardware, software, performance, programmability, portability,
  43364.    you name it!
  43365.  
  43366. I have a small collection of parallel I/O examples for ftp at
  43367. cs.dartmouth.edu in pub/pario.  There is also a bibliography there
  43368. too.  I hope the community finds this archive useful, and suggests
  43369. contributions to the archive.  We may want to add an "anecdotes"
  43370. section as well.
  43371.  
  43372. dave
  43373.  
  43374. -- 
  43375. -----------------
  43376. Mathematics and Computer Science
  43377. Dartmouth College, 6211 Sudikoff Laboratory, Hanover NH 03755-3510
  43378. email: David.Kotz@Dartmouth.edu    or   dfk@cs.dartmouth.edu
  43379.  
  43380. Approved: parallel@hubcap.clemson.edu
  43381. Follow-up: comp.parallel
  43382. Path: bounce-back
  43383. From: ukeller@pallas-gmbh.de (Udo Keller)
  43384. Newsgroups: comp.parallel,comp.parallel.pvm,comp.arch,comp.sys.super
  43385. Subject: European MPI Workshop - First Reposting
  43386. Date: 6 Dec 1993 14:02:44 +0100
  43387. Organization: PALLAS GmbH
  43388. Reply-To: mpi-ws@pallas-gmbh.de
  43389. Keywords: MPI,standards,MPP,SPP
  43390. X-Newsreader: mxrn 6.18-6
  43391.  
  43392.  
  43393.         First Announcement, first reposting
  43394.  
  43395.         E U R O P E A N     M P I     W O R K S H O P
  43396.  
  43397. MPI, the new standard for message-passing programming has been presented
  43398. at the Supercomputer'93 in Portland recently. The MPI (Message-Passing
  43399. Interface) standard has been defined by the transatlantic MPI Committee.
  43400. The European particpation in the MPI Committee was funded by the ESPRIT
  43401. project PPPE. 
  43402.  
  43403. The MPI Committee is now waiting for public comments until February
  43404. 11. European software developers are using message-passing systems for
  43405. many years. With their long experience in programming
  43406. message-passing parallel computers, European software developers should
  43407. be actively involved in the final round of the MPI definition.
  43408.  
  43409. It is the aim of the European MPI Workshop to organize the dissemination
  43410. of MPI in Europe and to collect the European developers' view on MPI. 
  43411.  
  43412.  
  43413. Date:            January 17/18 1994
  43414.  
  43415. Location:        INRIA Sophia Antipolis (near Nice)
  43416.  
  43417. Organized by:        PALLAS, GMD, INRIA (on behalf of the PPPE project)
  43418.  
  43419. Registration fee:    70 ECU or 450 FF (to be paid cash at registration)
  43420.  
  43421.  
  43422. Who should attend:    European software developers with experience in
  43423.             parallel computing, preferably message passing.
  43424.             
  43425.             Participants from universities,
  43426.              research organizations, and industry are welcome.
  43427.  
  43428.             The maximum number of participants is 80.
  43429.  
  43430.  
  43431. Agenda:        
  43432.  
  43433. January 17 afternoon:    Presentation of the MPI message passing standard
  43434. January 18 morning:    Feedback of European software developers on MPI
  43435.  
  43436.             After the workshop the MPI Committee will have its
  43437.             European meeting.
  43438.  
  43439. If you want to participate or need more information, please contact PALLAS
  43440.  
  43441.              mpi-ws@pallas-gmbh.de
  43442.  
  43443. You will receive the MPI standard document. Details on speakers, transport,
  43444. hotels etc. will be sent out later.
  43445. -- 
  43446. ----------------------------------------------------------------------------
  43447. Udo Keller                      phone      :    +49-2232-1896-0
  43448. PALLAS GmbH                     fax        :    +49-2232-1896-29
  43449. Hermuelheimer Str.10            direct line:    +49-2232-1896-15
  43450. D-50321 Bruehl                  email      :    ukeller@pallas-gmbh.de
  43451. ----------------------------------------------------------------------------
  43452.  
  43453. Approved: parallel@hubcap.clemson.edu
  43454. Follow-up: comp.parallel
  43455. Path: bounce-back
  43456. Newsgroups: comp.parallel
  43457. From: assaf@csa.technion.ac.il (Assaf Schuster)
  43458. Subject: PPL Special issue on Dynamically Reconfigurable Architectures
  43459. Message-ID: <CHM7IA.n0D@discus.technion.ac.il>
  43460. Sender: news@discus.technion.ac.il (News system)
  43461. Nntp-Posting-Host: csa.cs.technion.ac.il
  43462. Organization: Technion, Israel Inst. Tech., Haifa
  43463. Date: Mon, 6 Dec 1993 13:15:46 GMT
  43464.  
  43465.     P A R A L L E L   P R O C E S S I N G   L E T T E R S
  43466.  
  43467.  
  43468.             Special Issue on
  43469.  
  43470.             Dynamically Reconfigurable Architectures
  43471.  
  43472.  
  43473. Papers are solicited for a special issue of Parallel Processing Letters
  43474. covering aspects of dynamically reconfigurable architectures for parallel
  43475. computation. Such architectures typically allow for the network topology
  43476. to be configured by allowing processors to select from a set of local
  43477. communication patterns. This issue will cover all topics related to the
  43478. theory, algorithms, structure, and implementation of architectures which
  43479. support a physical switching of communication patterns during a computation.
  43480. The special issue is scheduled to be published in Spring 1995.
  43481.  
  43482. The topics of interest include, but are not limited to:
  43483.  
  43484.  
  43485.     Models                 Implementations and Systems
  43486.     Complexity             Sorting    and Packet Routing
  43487.     Scalability            Embedding of Fixed Topologies
  43488.         Problem Solving Paradigms     Image Processing, Graphics
  43489.     Algorithms                      Optical Architectures
  43490.  
  43491.  
  43492. Four copies of complete manuscripts, subject to a hard limit of 12 pages
  43493. (including figures), should be sent to Dr. Assaf Schuster (see address
  43494. below) by June 20, 1994. Manuscripts must conform to the normal submission
  43495. requirements of Parallel Processing Letters.
  43496.  
  43497.   Russ Miller                              Assaf Schuster 
  43498.   Editor  PPL                              Guest Editor  PPL 
  43499.   Dept. of Computer Science                Dept. of Computer Science
  43500.   State University of New York at Buffalo  Technion
  43501.   226 Bell Hall, Buffalo, NY 14260         Haifa 32000
  43502.   USA                                      ISRAEL
  43503.   miller@cs.buffalo.edu                    assaf@cs.technion.ac.il
  43504.  
  43505. --------------------------   CUT HERE  ------------------------------
  43506.  
  43507. \documentstyle[12pt]{article}
  43508.  
  43509. \setlength{\textwidth}{6 in}
  43510. \setlength{\textheight}{9.25 in}
  43511. \setlength{\oddsidemargin}{0.00 in}
  43512. \setlength{\topmargin}{-0.5in}
  43513. \setlength{\parskip}{7.5pt}
  43514. \baselineskip 15pt
  43515.  
  43516. \pagestyle{empty}
  43517.  
  43518. \begin{document}
  43519.  
  43520. \vspace*{1cm}
  43521.  
  43522. \begin{center}
  43523. {\Large {\it Parallel Processing Letters}\\
  43524. \vspace{0.3cm}
  43525. Special Issue on\\
  43526. \vspace{0.3cm}
  43527. Dynamically Reconfigurable Architectures}
  43528. \end{center}
  43529.  
  43530. \vspace{1cm}
  43531.  
  43532. Papers are solicited for a special issue of {\em Parallel Processing Letters}
  43533. covering aspects of dynamically reconfigurable
  43534. architectures for parallel computation.
  43535. Such architectures typically allow for the network topology to be configured
  43536. by allowing processors to select from a set of local communication patterns.
  43537. This issue will cover all topics related to the theory,
  43538. algorithms, structure, and implementation of architectures
  43539. which support a physical switching of communication patterns during a
  43540. computation.
  43541. The special issue is scheduled to be published in Spring 1995.
  43542.  
  43543. The topics of interest include, but are not limited to:
  43544.  
  43545. \begin{center}
  43546. \noindent
  43547.  \begin{tabular}{ll}
  43548.     Models             &    Implementations and Systems \\
  43549.     Complexity         &    Sorting    and Packet Routing \\
  43550.     Scalability        &    Embedding of Fixed Topologies \\
  43551.         Problem Solving Paradigms &    Image Processing, Graphics \\
  43552.     Algorithms              &      Optical Architectures \\
  43553. \end{tabular}
  43554. \end{center}
  43555.  
  43556.  
  43557.  
  43558. Four copies of complete manuscripts, subject to a hard limit of 12 pages
  43559. (including figures), should be sent to Dr. Assaf Schuster (see address
  43560. below) by June 20, 1994. Manuscripts must conform to the normal
  43561. submission requirements of Parallel Processing Letters.
  43562.  
  43563. \begin{center}
  43564. \small
  43565. \noindent
  43566.  \begin{tabular}{ll}
  43567. Russ Miller                             & Assaf Schuster   \\
  43568. Editor  PPL                             & Guest Editor  PPL  \\
  43569. Dept. of Computer Science               & Dept. of Computer Science \\
  43570. State University of New York at Buffalo & Technion \\
  43571. 226 Bell Hall, Buffalo, NY 14260        & Haifa 32000   \\
  43572. USA                                     & ISRAEL  \\
  43573. miller@cs.buffalo.edu                   & assaf@cs.technion.ac.il
  43574. \end{tabular}
  43575. \normalsize
  43576. \end{center}
  43577.  
  43578. \end{document}
  43579.  
  43580.  
  43581. Approved: parallel@hubcap.clemson.edu
  43582. Follow-up: comp.parallel
  43583. Path: bounce-back
  43584. Newsgroups: comp.databases.object,comp.databases,comp.parallel
  43585. From: anna@deis35.cineca.it (Anna Ciampolini)
  43586. Subject: ECOOP94 Call for Demo
  43587. Apparently-To: comp-parallel@uunet.uu.net
  43588. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  43589. Organization: DEIS ... le news
  43590. Date: Fri, 3 Dec 93 15:36:07 GMT
  43591.  
  43592.  
  43593.  
  43594. Call for Demonstration Proposals - ECOOP '94
  43595. The Eighth European Conference on Object-Oriented Programming
  43596. Bologna, Italy
  43597. July 6-8, 1994
  43598.  
  43599. The 1994 Eighth European Conference on Object-Oriented Programming will 
  43600. be held on July 6-8, 1994, in Bologna, Italy.  The Conference aims to 
  43601. bring together researchers and practitioners from academia and industry 
  43602. to discuss and exchange new developments in object-oriented languages, 
  43603. systems and methods.
  43604.  
  43605. A Demonstration session is planned in parallel with the Conference sessions.
  43606. Demonstrations of object-oriented software are invited to illustrate 
  43607. innovative ideas.
  43608.  
  43609. Candidate demos should:
  43610. *    illustrate innovative object-oriented concepts;
  43611. *    use advanced technologies;
  43612. *    present  non-commercial products (an exhibition session for 
  43613.     commercial object-oriented software is also planned).
  43614.  
  43615. Proposals for demonstrations should be approximately three pages in length, 
  43616. and should contain:
  43617. *    a description of the demo, identifying the specific technical 
  43618.     issues that will be addressed;
  43619. *    a discussion of the relevance of the demo  for the object-oriented 
  43620.     programming community;
  43621. *    the hardware/software requirements for the demonstration.
  43622.  
  43623. Acceptance of demos will be decided on the basis of their technical merit, 
  43624. scientific relevance and  novelty; it will be also constrained by the 
  43625. organization capability to furnish the required hardware/software.                         
  43626. Proposals must be submitted no later than April 1, 1994 to:
  43627.  
  43628. Anna Ciampolini
  43629. ECOOP'94 Demonstration Chair
  43630. DEIS - Universita' di Bologna            
  43631. Viale Risorgimento 2            
  43632. I-40136 Bologna, Italy                
  43633. Tel.: +39 51 6443033            
  43634. Fax : +39 51 6443073            
  43635. E-mail: anna@deis33.cineca.it    
  43636.  
  43637. Acceptance will be notified no later than May 16, 1994.
  43638.  
  43639.  
  43640. Approved: parallel@hubcap.clemson.edu
  43641. Follow-up: comp.parallel
  43642. Path: bounce-back
  43643. Newsgroups: comp.parallel
  43644. From: djb1@ukc.ac.uk
  43645. Subject: Re: FAQ on message passing packages
  43646. Date: Mon, 06 Dec 93 14:30:45 GMT
  43647. Organization: Computing Lab, University of Kent at Canterbury, UK.
  43648. References: <1993Dec3.132938.28817@hubcap.clemson.edu>
  43649.  
  43650. In article <1993Dec3.132938.28817@hubcap.clemson.edu>,
  43651. Timothy Burns <tim@osiris.usi.utah.edu> wrote:
  43652. >Unfortunatly, comp.parallel does not have an FAQ on rtfm.mit.edu.
  43653. >I am therefore cluttering the net with my question:
  43654. >
  43655. >    Does anyone where I can find the tcgmsg package?
  43656. >
  43657. >I am also looking for a whole list of packages.
  43658. >
  43659. >Tim Burns                email: tim@osiris.usi.utah.edu
  43660.  
  43661. The FAQs area of the parallel computing archive site I run, has several
  43662. lists of tools for different subjects.  It's possible I could have what you
  43663. want.
  43664.     site: unix.hensa.ac.uk
  43665.     directory: /parallel/faqs
  43666.  
  43667. total 343
  43668. -rw-r--r--  1 djb1         3797 Nov 19 14:17 Index
  43669. -rw-r--r--  1 djb1        24916 Nov 29 15:12 PVM
  43670. -rw-r--r--  1 djb1         9355 Nov  2 16:32 PVM-technical
  43671. -rw-r--r--  1 djb1         8172 Nov  2 16:10 classification-of-parallel-algorithms
  43672. -rw-r--r--  1 djb1         1801 Sep  3 16:51 clusters-of-workstations
  43673. -rw-r--r--  1 djb1         3174 Nov  5 17:00 cm5-intel-mailing-lists
  43674. -rw-r--r--  1 djb1        25678 Sep 14 12:10 dynamic-load-balancing-farming
  43675. -rw-r--r--  1 djb1         5738 Oct 25 11:41 industrial-par-tools
  43676. -rw-r--r--  1 djb1         4987 Sep 15 14:04 ksr-ipsc860-papers
  43677. -rw-r--r--  1 djb1         2887 Nov  8 15:28 linux-and-transputers
  43678. -rw-r--r--  1 djb1         4284 Sep  3 16:48 load-balancing-simd
  43679. -rw-r--r--  1 djb1         7339 Sep 28 11:09 mesh-of-buses
  43680. -rw-r--r--  1 djb1         3657 Oct 25 16:21 message-passing-simulators
  43681. -rw-r--r--  1 djb1         4209 Sep 14 10:19 parallel-C++-classes-1
  43682. -rw-r--r--  1 djb1         2637 Sep 14 10:18 parallel-C++-classes-2
  43683. -rw-r--r--  1 djb1         1779 Aug 24 10:19 parallel-C++-extensions
  43684. -rw-r--r--  1 djb1         1937 Oct 25 16:41 parallel-Fourier-transforms
  43685. -rw-r--r--  1 djb1         8613 Oct  1 10:24 parallel-data-compression
  43686. -rw-r--r--  1 djb1        22605 Sep 28 11:09 parallel-garbage-collection
  43687. -rw-r--r--  1 djb1        44286 Sep 14 11:34 parallel-genetic-algorithms
  43688. -rw-r--r--  1 djb1        14472 Sep 17 14:21 scalability
  43689. -rw-r--r--  1 djb1         5715 Aug 25 10:00 systems-for-par-prog-development
  43690. -rw-r--r--  1 djb1        15559 Sep  3 10:05 tools-for-clustered-workstations
  43691. -rw-r--r--  1 djb1        34195 Oct  5 16:32 transputer-FAQ
  43692. -rw-r--r--  1 djb1        48251 Oct  5 16:32 transputer-compilers
  43693. -rw-r--r--  1 djb1        25828 Oct  5 16:32 transputer-ftp-sites
  43694.  
  43695. ...  and indeed, grepping in those files I found the following in 
  43696. 'tools-for-clustered-workstations':
  43697.  
  43698. Name:       TCGMSG (Theoretical Chemistry Group Message Passing System)
  43699. From:       Argonne National Laboratory
  43700. Works w/on: Heterogeneous computers
  43701. Languages:  C and Fortran
  43702. Avail at:   ftp.tcg.anl.gov:pub/tcgmsg
  43703. Contact:    rj_harrison@pnl.gov (Robert J. Harrison)
  43704. Desc.:      Like PVM and p4. Comes with set of example 'chemistry' 
  43705.             applications. Predecessor to p4.
  43706.  
  43707. Dave Beckett
  43708.  
  43709. Approved: parallel@hubcap.clemson.edu
  43710. Follow-up: comp.parallel
  43711. Path: bounce-back
  43712. Newsgroups: comp.parallel
  43713. From: dbader@eng.umd.edu (David Bader)
  43714. Newsgroups: comp.parallel,csd.umiacs.parallel
  43715. Subject: Kendall Square Research In The News
  43716. Date: 6 Dec 1993 16:22:08 GMT
  43717. Organization: Professional Student, University of Maryland, College Park
  43718. Nntp-Posting-Host: tea.eng.umd.edu
  43719.  
  43720. I saw this in this morning's Washington Post (12/6/93) business
  43721. section:
  43722.  
  43723. DEMOTIONS AT KENDALL SQUARE
  43724.  
  43725.     Kendall Square Research Corp., a Waltham, Mass., supercomputer
  43726. company, demoted three top officials after revelations that its income
  43727. had been misreported.
  43728.  
  43729.     The company said that revenue for the first nine months of
  43730. 1993 will be $10.6 million, less than half the $24.7 million it had
  43731. reported.  The company also revised its 1992 revenue to $16.3 million,
  43732. compared with the $20.5 million previously reported, and its 1992 net
  43733. loss to $17.2 million compared with $12.7 million previously reported.
  43734.  
  43735.     Founder Henry Burkhardt III was stripped of his chief
  43736. executive office title but will remain president.  The executive vice
  43737. president and chief financial officer "will cease to be officers of
  43738. the company."  But they will remain employees at full pay.
  43739.  
  43740.     Chairman William I. Koch, chairman and the company's largest
  43741. shareholder, assumed the title of CEO until a new one is found.
  43742.  
  43743.  
  43744.  
  43745. -----------------------------------
  43746. David A. Bader 
  43747. Electrical Engineering Department
  43748. A.V. Williams Building - Room 3142-A
  43749. University of Maryland
  43750. College Park, MD 20742
  43751.  
  43752. Internet: dbader@eng.umd.edu
  43753.  
  43754.  
  43755.  
  43756.  
  43757.  
  43758.  
  43759. Approved: parallel@hubcap.clemson.edu
  43760. Follow-up: comp.parallel
  43761. Path: bounce-back
  43762. Newsgroups: comp.parallel
  43763. From: richards@wrl.EPI.COM (Fred Richards)
  43764. Subject: Data-parallel languages (non-CM C*)?
  43765. Date: 6 Dec 1993 16:38:47 GMT
  43766. Organization: Entropic Research Laboratory, Washington DC
  43767. Reply-To: richards@wrl.EPI.COM
  43768.  
  43769. Is any data-parallel language emerging as a standard,
  43770. much as PVM seems to be as a message-passing library?
  43771.  
  43772. Does C*, or something *very* similar, run on any of the
  43773. other MPP machines (Intel, nCube, MasPar, etc.)
  43774.  
  43775. Fred Richards
  43776. Entropic Research Lab
  43777. 600 Pennsylvania Ave. SE, Suite 202
  43778. Washington, DC 20003
  43779. (202) 547-1420        richards@wrl.epi.com
  43780.  
  43781.  
  43782. Approved: parallel@hubcap.clemson.edu
  43783. Follow-up: comp.parallel
  43784. Path: bounce-back
  43785. Newsgroups: comp.parallel
  43786. Date: Mon, 6 Dec 1993 18:10:24 -0500
  43787. From: takis@poobah.wellesley.edu (Takis Metaxas)
  43788. Subject: 6th IEEE International Conference on Tools with Artificial Intelligence
  43789.  
  43790.  
  43791.  
  43792.                            CALL FOR PAPERS
  43793.  
  43794. 6th IEEE International Conference on Tools with Artificial Intelligence
  43795.  
  43796.                           November 6-9, 1994
  43797.                         Hotel Intercontinental
  43798.                         New Orleans, Louisiana
  43799.  
  43800. This conference is envisioned to foster the transfer of ideas relating
  43801. to  artificial  intelligence  among academics, industry, and goverment
  43802. agencies.  It focuses on methodologies which can aid  the  development
  43803. of  AI,  as  well  as  the  demanding issues involved in turning these
  43804. methodologies to practical tools.  Thus, this  conference  encompasses
  43805. the  technical  aspects  of  specifying,  developing,  and  evaluating
  43806. theoretical and applied  mechanisms  which  can  serve  as  tools  for
  43807. developing  intelligent  systems  and pursuing artificial intelligence
  43808. applications.  Focal topics of interest include, but are  not  limited
  43809. to, the following:
  43810.  
  43811. * Machine Learning, Computational Learning
  43812. * Artificial Neural Networks
  43813. * Uncertainty Management, Fuzzy Logic
  43814. * Distributed and Cooperative AI, Information Agents
  43815. * Knowledge Based Systems, Intelligent Data Bases
  43816. * Intelligent Strategies for Scheduling and Planning
  43817. * AI Algorithms, Genetic Algorithms
  43818. * Expert Systems
  43819. * Natural Language Processing
  43820. * AI Applications (Vision, Robotics, Signal Processing, etc.)
  43821. * Information Modeling, Reasoning Techniques
  43822. * AI Languages, Software Engineering, Object-Oriented Systems
  43823. * Logic and Constraint Programming
  43824. * Strategies for AI development
  43825. * AI tools for Biotechnology
  43826.  
  43827.  
  43828. INFORMATION FOR AUTHORS
  43829.  
  43830. There will be both academic and industry tracks.  A one  day  workshop
  43831. (November  6th)  precedes  the  conference (November 7-9). Authors are
  43832. requested to submitt original papers to the program chair by April 20,
  43833. 1994.   Five  copies  (in  English)  of double-spaced typed manuscript
  43834. (maximum of 25 pages) with an abstract are required.  Please attach  a
  43835. cover  letter  indicating the conference track (academic/industry) and
  43836. areas (in order of preference) most relevant to  the  paper.   Include
  43837. the  contact  author's  postal  address, e-mail address, and telephone
  43838. number.  Submissions in other audio-visual forms are  acceptable  only
  43839. for  the industry track, but they must focus on methodology and timely
  43840. results on AI technological applications and problems.   Authors  will
  43841. be  notified of acceptance by July 15, 1994 and will be given instruc-
  43842. tions for camera ready papers at that time.  The deadline  for  camera
  43843. ready papers will be August 19, 1994.  Outstanding papers will be eli-
  43844. gible for publication  in  the  International  Journal  on  Artificial
  43845. Intelligence Tools.
  43846.  
  43847. Submit papers and panel proposals by April 20,  1994  to  the  Program
  43848. Chair:
  43849.  
  43850.                 Cris Koutsougeras
  43851.                 Computer Science Department
  43852.                 Tulane University
  43853.                 New Orleans, LA 70118
  43854.                 Phone: (504) 865-5840
  43855.                 e-mail: ck@cs.tulane.edu
  43856.  
  43857. Potential panel organizers please submit a subject statement and a
  43858. list of panelists.  Acceptances of panel proposals will be announced
  43859. by June 30, 1994.
  43860.  
  43861. A computer account (tai@cs.tulane.edu) is running to provide automatic
  43862. information  responses.   You  can obtain the electronic files for the
  43863. CFP, program, registration form, hotel reservation form,  and  general
  43864. conference information.  For more information please contact:
  43865.  
  43866.  Conference Chair                   Steering Committee Chair
  43867.  
  43868. Jeffrey J.P. Tsai                   Nikolaos G. Bourbakis
  43869. Dept. of EECS (M/C 154)             Dept. of Electrical Engineering
  43870. 851 S. Morgan Street                SUNY at Binghamton
  43871. University of Illinois              Binghamton, NY 13902
  43872. Chicago, IL 60607-7053              Tel: (607)777-2165
  43873. (312)996-9324                       e-mail: bourbaki@bingvaxu.cc.binghamton.edu
  43874. (312)413-0024 (fax)
  43875. tsai@bert.eecs.uic.edu
  43876.  
  43877. Program Chair : Cris Koutsougeras, Tulane University
  43878.  
  43879. Registration Chair : Takis Metaxas,
  43880.                      (617) 283-3054,
  43881.                      e-mail: takis@poobah.wellesley.edu
  43882.  
  43883.  
  43884. Local Arrangements Chair : Akhtar Jameel, e-mail: jameel@cs.tulane.edu
  43885.  
  43886. Workshop Organizing Chair : Mark Hovy
  43887.  
  43888. Industrial Track Vice Chairs : Steven Szygenda, Raymond Paul
  43889.  
  43890. Program Vice Chairs :
  43891.  
  43892.         Machine Learning:  E. Kounalis
  43893.         Computational Learning:  J. Vitter
  43894.         Uncertainty Management, Fuzzy Logic: R. Goldman
  43895.         Knowledge Based Systems, Intelligent Data Bases:  M. Ozsoyoglu
  43896.         AI Algorithms, Genetic Algorithms:  P.  Marquis
  43897.         Natural Language Processing:  B. Manaris
  43898.         Information Modeling, Reasoning Techniques:  D. Zhang
  43899.         Logic and Constraint Programming: A. Bansal
  43900.         AI Languages, Software Engineering, Object-Oriented Systems:  B. Bryant
  43901.         Artificial Neural Networks:  P. Israel
  43902.         Distributed and Cooperative AI, Information Agents:  C. Tsatsoulis
  43903.         Intelligent Strategies for Scheduling and Planning: L. Hoebel
  43904.         Expert Systems:  F. Bastani
  43905.         AI Applications (Vision, Robotics, Signal Processing, etc.): C. T. Chen
  43906.         AI tools for Biotechnology: M. Perlin
  43907.         Strategies for AI development: U. Yalcinalp
  43908.  
  43909. Publicity Chairs :      R. Brause, Germany
  43910.                         Mikio Aoyama, Japan
  43911.                         Benjamin Jang, Taiwan
  43912.  
  43913. Steering Committee :
  43914.         Chair: Nikolaos G. Bourbakis, SUNY-Binghamton
  43915.         John Mylopoulos, University of Toronto, Ontario, Canada
  43916.         C. V. Ramamoorthy, University of California-Berkeley
  43917.         Jeffrey J.P. Tsai, University of Illinois at Chicago
  43918.         Wei-Tek Tsai, University of Minnesota
  43919.         Benjamin W. Wah, University of Illinois at Urbana
  43920.  
  43921.  
  43922.  
  43923. Approved: parallel@hubcap.clemson.edu
  43924. Follow-up: comp.parallel
  43925. Path: bounce-back
  43926. Newsgroups: comp.parallel
  43927. From: Graham Jones <gxj@dcs.ed.ac.uk>
  43928. Subject: paper wanted
  43929. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  43930. Organization: Department of Computer Science, University of Edinburgh
  43931. Date: Tue, 7 Dec 1993 10:19:13 GMT
  43932. Apparently-To: comp-parallel@uknet.ac.uk
  43933.  
  43934.  
  43935. I am trying to get hold of a Hewlett Packard technical report HPL-91-11.
  43936. Does anyone know of either
  43937.  
  43938.     1) an ftp site for HP
  43939.     2) someone I could email to obtain the report
  43940.  
  43941. Thank you
  43942.  
  43943. --
  43944.  Graham P. Jones
  43945.  Address: Room 3419,
  43946.       The University Of Edinburgh,
  43947.       Edinburgh EH9 3JY
  43948. Approved: parallel@hubcap.clemson.edu
  43949. Follow-up: comp.parallel
  43950. Path: bounce-back
  43951. Newsgroups: comp.parallel
  43952. From: rl@uni-paderborn.de (Reinhard Lueling)
  43953. Subject: special purpose parallel architectures
  43954. Date: 7 Dec 1993 10:30:18 +0100
  43955. Organization: Universitaet Paderborn, Germany
  43956.  
  43957.  
  43958. We are actually looking for special purpose parallel processing
  43959. systems which have been realized or which are actually planned for
  43960. realization.
  43961.  
  43962. I know that there are some special purpose parallel processing
  43963. systems for graphic applications and for VLSI simulation
  43964. (I think there is an IBM simulation engine available)
  43965.  
  43966.  
  43967. Do you have more informations ?
  43968. Do you think its worthwile to build special purpose hardware ?
  43969. Which applications might require specialiced hardware ? 
  43970.  
  43971.  
  43972. There may be different ways to built a special purpose system:  
  43973. (different levels of speciality)  
  43974.  
  43975. 1. take available processors (sparcs, intel, transputers ....) and connect  
  43976.    them by specialiced routing chips and additional hardware in a dedicated way
  43977.    to fulfill the special requirements of the application.  
  43978.     
  43979. 2. design specialiced processors and routing chips and connect them.     
  43980.  
  43981.  
  43982. Any pointers to literature would help. I will post a summary afterwards.  
  43983.  
  43984.  
  43985. thanks,   Reinhard 
  43986.  
  43987. Reinhard Lueling                  
  43988. University of Paderborn
  43989. Dept. of Computer Science 
  43990.  
  43991. Approved: parallel@hubcap.clemson.edu
  43992. Follow-up: comp.parallel
  43993. Path: bounce-back
  43994. Newsgroups: comp.parallel
  43995. From: Winkelmann@rrz.Uni-Koeln.DE (Volker Winkelmann)
  43996. Subject: Conference "Trends in Workstation Cluster Computing", March 2-4, 1994
  43997. Date: 6 Dec 1993 15:37:46 GMT
  43998. Organization: Regional Computing Center, University of Cologne
  43999. Nntp-Posting-Host: rs1.rrz.uni-koeln.de
  44000. Keywords: DCE/DME, Distributed Systems, Distributed Management
  44001.  
  44002. **** Second announcement / call for participation for the conference ****
  44003.  
  44004.     
  44005.           -------------------------------------------
  44006.           | Trends in Workstation Cluster Computing |
  44007.           |                        |
  44008.           |                        |
  44009.           |    University of Cologne (Germany)        |
  44010.           |        March 2-4, 1994            |
  44011.           -------------------------------------------
  44012.  
  44013.  
  44014. Goals of the Conference
  44015. -----------------------
  44016.  
  44017. During the last few years workstation clusters have gained considerable 
  44018. importance in industrial and academic computing because of their attractive 
  44019. price/performance ratio. Workstation clusters steadily replace mainframes 
  44020. and even supercomputers. System administrators face a growing number of 
  44021. hardware and software components, and the number of users of workstation 
  44022. clusters increases. The conference "Trends in Workstation Cluster Computing" 
  44023. intends to present state-of-the-art solutions of typical problems inherent 
  44024. in workstation cluster management in the areas of operating systems, tools, 
  44025. services and applications. 
  44026.  
  44027.  
  44028. Intended audience
  44029. -----------------
  44030.  
  44031. o    computer scientists who are looking for better solutions to 
  44032.     these problems,
  44033. o    system analysts und system managers, who need to get their 
  44034.     distributed systems running efficiently, and
  44035. o    users who need to find long-living and efficient solutions 
  44036.     to their problems.
  44037.  
  44038.  
  44039. Central topics
  44040. --------------
  44041.  
  44042. o    scheduling and load balancing in distributed systems,
  44043. o    services in distributed systems,
  44044. o    availability and security of services,
  44045. o    parallel computing in distributed systems.
  44046.  
  44047.  
  44048. Tutorial
  44049. --------
  44050.  
  44051. On March 2, a one-day tutorial on Distributed Computing Environment (DCE) and 
  44052. Distributed Management Environment (DME) will set the stage for the 
  44053. subsequent presentations.
  44054.  
  44055.  
  44056. Conference
  44057. ----------
  44058.  
  44059. Talks on AMOEBA, ATHENA, BIRLIX, CHORUS, NIS+, NQS/EXEC, OSF/DME, 
  44060. PEACE, PLAN 9, SHIFT, TIVOLI and others are planned.
  44061. On March 3, a series of invited talks and discussions will give an 
  44062. overview of the state of the art in distributed operating systems and 
  44063. distributed workstation management software. 
  44064. On March 4, experts from industry and academia will report about their 
  44065. experience in workstation cluster computing. 
  44066.  
  44067. Conference languages will be German and English.
  44068.  
  44069.  
  44070. Panel discussion 
  44071. ----------------
  44072.  
  44073. On March 4, a panel discussion of workstation vendors on "Future Trends in 
  44074. Workstation Cluster Computing" will conclude the conference.
  44075.  
  44076.  
  44077. Agenda / Technical Program
  44078. --------------------------
  44079.  
  44080.             **** Wednesday, March 2, 1994 ****
  44081.  
  44082.     9:15        Welcome
  44083.             Dr. W. Trier, 
  44084.             Regionales Rechenzentrum, Universitaet zu Koeln
  44085.             Geschaeftsfuehrender Direktor
  44086.  
  44087.     TUTORIAL ON DCE/DME
  44088.     M. Santifaller, santix software, Muenchen
  44089.     H. Streppel, Digital Equipment, Muenchen
  44090.  
  44091.     9:30        Einleitung
  44092.             H. Streppel, Digital Equipment, Muenchen
  44093.  
  44094.     10:00        Einfuehrung in Distributed Computing anhand von DCE
  44095.             M. Santifaller, santix software, Muenchen
  44096.  
  44097.     11:00        Break
  44098.  
  44099.     11:30        Network Computing Modelle in der Praxis
  44100.             M. Santifaller, santix software, Muenchen
  44101.  
  44102.     12:15        Distributed System Management,
  44103.             Anforderungen und Technologien I
  44104.             M. Santifaller, santix software, Muenchen
  44105.  
  44106.     13:00        Break for Lunch
  44107.  
  44108.     14:30        Distributed System Management,
  44109.             Anforderungen und Technologien II
  44110.             H. Streppel, Digital Equipment, Muenchen
  44111.  
  44112.     15:30        Ueberblick ueber DME, Architektur, Status, Ausblick
  44113.             H. Streppel, Digital Equipment, Muenchen
  44114.  
  44115.     16:00        Break
  44116.  
  44117.     16:30        Sicherheit in DCE/DME
  44118.             M. Santifaller, santix software, Muenchen
  44119.  
  44120.     17:30        Discussion
  44121.  
  44122.     18:00        End of Tutorial
  44123.  
  44124.  
  44125.             **** Thursday, March 3, 1994 ****
  44126.  
  44127.     9:00        Welcome
  44128.             Prof. Dr. P. Speth, 
  44129.             Prorektor der Universitaet zu Koeln,
  44130.             Institut fuer Geophysik und Meteorologie
  44131.             
  44132.             Prof. Dr. G. Hohlneicher,
  44133.             Nebenamtlicher Direktor des RRZK, 
  44134.             Institut fuer Physikalische Chemie II
  44135.  
  44136.     SESSION - "DISTRIBUTED OPERATING SYSTEMS"
  44137.     Chair: Prof. Dr. U. Trottenberg, GMD, Sankt Augustin            
  44138.  
  44139.     9:30        Plan 9 from Bell Labs
  44140.             R. Pike, Bell Laboratories, Murray Hill, NJ
  44141.  
  44142.     10:30        Break
  44143.  
  44144.     11:00        BIRLIX: Eine Sicherheitsarchitektur fuer 
  44145.             verteilte Systeme
  44146.             Dr. W. Kuehnhauser, GMD, St. Augustin
  44147.  
  44148.     11:30         Chorus/MiX: The Single System Image Approach
  44149.             Dr. M. Rozier, Chorus systemes, St. Quentin e.Y.
  44150.  
  44151.     12:00        PEACE: Der Weg zur Hoechstleistung
  44152.             F. Schoen, GMD-FIRST, Berlin
  44153.  
  44154.     12:30        Break for Lunch
  44155.  
  44156.     14:00        The Distributed Operating System AMOEBA
  44157.             (Current Status)
  44158.             L. P. van Doorn, Vrije Universiteit Amsterdam
  44159.  
  44160.     15:00        Break
  44161.  
  44162.     SESSION - "DISTRIBUTED WORKSTATION MANAGEMENT"
  44163.     Chair: L. B. Karle, Digital Equipment, Muenchen            
  44164.  
  44165.     15:30        CONNECT: Queue (NQS)
  44166.             J. Milles, Sterling Software, Dallas, Texas
  44167.  
  44168.     16:00        NIS+: Distributed Naming Service
  44169.             S. Holzaht, Sun Microsystems, Ratingen
  44170.  
  44171.     16:30        Break
  44172.  
  44173.     17:00        Tivoli Management Environment
  44174.             M. Santifaller, santix software, Muenchen
  44175.  
  44176.     17:30        DME: Zu anspruchsvoll fuer den Markt?
  44177.             H. Streppel, Digital Equipment, Muenchen
  44178.  
  44179.     18:00        End of Sessions
  44180.  
  44181.     19:00        Conference Dinner
  44182.  
  44183.  
  44184.             **** Friday, March 4, 1994 ****
  44185.  
  44186.     SESSION - "EXPERIENCE AND APPLICATIONS I"
  44187.     Chair: Prof. Dr. G. Hohlneicher, Inst. f. Phys. Chemie II, Koeln
  44188.  
  44189.     9:00        Athena Experience - Mainframe to Fully Distributed
  44190.             Dr. M. J. Clark, Essex University, Colchester
  44191.  
  44192.     10:00        Workstation-Gruppen in der KFA
  44193.             O. Buechner, Forschungszentrum Juelich
  44194.  
  44195.     10:30        Break
  44196.  
  44197.     11:00        Heterogene Workstations ohne Chaos
  44198.             Dr. H. Richter, LRZ, Muenchen
  44199.             
  44200.     11:30        SHIFT: The Evolution of 
  44201.             Workstation Cluster Computing at CERN
  44202.             L. Robertson, CERN, Genf
  44203.  
  44204.     12:00        IBM Load Leveler: Erfahrungen auf einem
  44205.             heterog. WS Cluster in der Comp. Chemistry
  44206.             Dr. A. Zywietz, Bayer AG, Leverkusen
  44207.  
  44208.     12:30        Break for Lunch
  44209.  
  44210.     SESSION - "EXPERIENCE AND APPLICATIONS II"
  44211.     Chair: Dr. H.-M. Wacker, DLR, Koeln
  44212.  
  44213.     14:00        Trends in Workstation Cluster Computing at Fermilab
  44214.             Dr. F. J. Rinaldo, Fermi Laboratory, Batavia, Il
  44215.  
  44216.     14:30        Numerische Anwendungen auf einem 
  44217.             Workstation Cluster der GMD
  44218.             H. Schwichtenberg, GMD, St. Augustin
  44219.  
  44220.     15:00        Erfahrungen mit CODINE auf einem 
  44221.             Workstation Cluster der VW AG
  44222.             Dr. W. Koenig, VW AG, Wolfsburg
  44223.  
  44224.     15:30        Break
  44225.  
  44226.     16:00        System-Management-Dienste fuer die Universitaet?
  44227.             C. Kalle, RRZK, Universitaet zu Koeln
  44228.  
  44229.     16:30        Panel Discussion on 
  44230.             Trends in Workstation Cluster Computing
  44231.             Digital Equipment GmbH
  44232.             Hewlett-Packard GmbH
  44233.             IBM Deutschland Informationssysteme GmbH
  44234.             SiliconGraphics Computer Systems GmbH
  44235.             Siemens Nixdorf Informationssysteme AG
  44236.             Sun Microsystems GmbH
  44237.  
  44238.     18:00        End of Conference
  44239.  
  44240.  
  44241.  
  44242. Exhibitions and Demonstrations
  44243. ------------------------------
  44244.  
  44245. During all three days hardware and software vendors will present their 
  44246. solutions concerning workstation cluster computing.
  44247. During the conference terminals for Internet access will be available to
  44248. the participants.
  44249.  
  44250.  
  44251. Conference Venue
  44252. ----------------
  44253.  
  44254.     University of Cologne
  44255.     Lecture Hall
  44256.     Albertus-Magnus-Platz 
  44257.     D-50931 Cologne
  44258.     Federal Republic of Germany
  44259.  
  44260.  
  44261. Registration Fee
  44262. ----------------
  44263.  
  44264.     Tutorial            250 DM
  44265.     Conference              150 DM
  44266.     Tutorial and Conference        350 DM
  44267.  
  44268. Members of universities and other educational institutions:
  44269.  
  44270.     Tutorial            200 DM, students 100 DM
  44271.     Conference              100 DM, students  50 DM
  44272.     Tutorial and Conference        250 DM, students 100 DM
  44273.  
  44274.  
  44275. Hotel Reservation
  44276. -----------------
  44277.  
  44278. Hotel reservations are available at the 
  44279.  
  44280.     Tourist Office of Cologne
  44281.     Unter Fettenhennen 19
  44282.     D-50667 Cologne
  44283.     Federal Republic of Germany
  44284.  
  44285.     Tel:         +49 221 221-3330/-3338/-3348
  44286.     Fax:        +49 221 221 3320
  44287.  
  44288. We have also have made a note of a limited number of rooms for the participants
  44289. of this conference at the 
  44290.  
  44291.     Hotel Conti
  44292.     Bruesseler Str. 40-42
  44293.  
  44294.     Tel:         +49 221 252062
  44295.     Fax:         +49 221 252107
  44296.  
  44297. for a reduced price of DM 90 for the period March 1 - 4, 1994. If you are 
  44298. interested, please contact the hotel by February 10, 1994, with reference 
  44299. to the conference.
  44300.  
  44301.  
  44302. Conference Registration and Questions
  44303. -------------------------------------
  44304.  
  44305. For registration or questions concerning the conference please contact:
  44306.  
  44307.     University of Cologne
  44308.     Regional Computing Center
  44309.     Volker Winkelmann
  44310.     Robert-Koch-Str. 10
  44311.     D-50931 Cologne
  44312.     Federal Republic of Germany
  44313.  
  44314.     Tel:        +49 221 478 5526
  44315.     Fax:        +49 221 478 5590
  44316.     E-Mail:        Trends94@rrz.Uni-Koeln.DE
  44317.  
  44318.     Final Registration: February 15, 1994
  44319.  
  44320.  
  44321.  
  44322. Registration Form
  44323. -----------------
  44324.  
  44325. Please fill in the following registration form and send it to the above address:
  44326.  
  44327. 8<---------------------- snip ----------------- snap ------------------------
  44328.  
  44329.  
  44330.  _________________________ _________________________ _________________________
  44331.  Title, Name           Institution/Organization  Department
  44332.  
  44333.  
  44334.  _________________________ _________________________ _________________________
  44335.  Street / P.O. Box       Zip Code, City         Country
  44336.  
  44337.  
  44338.  _________________________ _________________________ _________________________
  44339.  Telephone           Fax                 E-Mail
  44340.  
  44341.  
  44342.  Registration for "Trends in Computational Cluster Computing"
  44343.  
  44344.  I will attend        O   the tutorial      O   the conference
  44345.  I am             O   a member of an educational institution
  44346.             O   a student (please include certification)
  44347.  
  44348.  
  44349.              __________________________________________
  44350.             Signature            Date
  44351.  
  44352. 8<---------------------- snip ----------------- snap ------------------------
  44353.  
  44354.  
  44355.  
  44356. **** End of announcement for "Trends in Workstation Cluster Computing" ****
  44357.  
  44358. -- 
  44359. -------------------------------------------------------------------------------
  44360.  Volker Winkelmann         Universitaet zu Koeln      University of Cologne
  44361.                            Regionales Rechenzentrum   Regional Computing Center
  44362.  Wi@rrz.Uni-Koeln.DE       Robert-Koch-Str. 10        Robert-Koch-Str. 10
  44363.  Tel: +49-221-478-5526     D-50931 Koeln-Lindenthal   D-50931 Cologne
  44364.  Fax: +49-221-478-5590     Bundesrep. Deutschland     Federal Rep. of Germany
  44365. -------------------------------------------------------------------------------
  44366.  
  44367. Approved: parallel@hubcap.clemson.edu
  44368. Follow-up: comp.parallel
  44369. Path: bounce-back
  44370. Newsgroups: comp.parallel
  44371. From: edsr!jlb@uunet.UU.NET (Jeff Buchmiller)
  44372. Subject: PCN templates for composition
  44373. Keywords: PCN, divide-and-conquer, self-scheduling, domain decomposition
  44374. Date: 7 Dec 93 16:46:20 GMT
  44375. Reply-To: edsr!jlb@uunet.UU.NET
  44376. Organization: Electronic Data Systems
  44377.  
  44378.  
  44379. Are there any ftp sites (or helpful posters or E-mail senders) from which
  44380. some standard PCN templates are available for composition techniques
  44381. such as divide-and-conquer, self-scheduling, and domain decomposition?
  44382.  
  44383. Thanks!
  44384. -jlb-
  44385. -- 
  44386. Jeff Buchmiller   Electronic Data Systems R&D   Dallas, TX   jlb@edsr.eds.com
  44387. -----------------------------------------------------------------------------
  44388. Disclaimer: This E-mail/article is not an official business record of EDS.
  44389.             Any opinions expressed do not necessarily represent those of EDS.
  44390.  
  44391. Approved: parallel@hubcap.clemson.edu
  44392. Follow-up: comp.parallel
  44393. Path: bounce-back
  44394. Newsgroups: comp.parallel,comp.arch
  44395. From: andreas@didymus.rmi.de (Andreas Fassl)
  44396. Subject: Re: Connect mouse to parallel?
  44397. Organization: Klaus Kaempf Softwareentwicklung
  44398. References: <1993Dec5.215447.12636@msuvx1.memst.edu>
  44399.  
  44400. In <1993Dec5.215447.12636@msuvx1.memst.edu> hus@msuvx1.memst.edu writes:
  44401.  
  44402. >Can I connect my mouse to the parallel port?  How?
  44403. >Thanks.   
  44404.  
  44405. Hi,
  44406.  
  44407. the only solution I can mention is to get a serial-to-parallel-converter.
  44408. Next trapdoor is the driver, I don't know any parallel mouse driver.
  44409. If you are out of serial lines, the better solution is to buy an inexpensive
  44410. additional serial  board.
  44411.  
  44412. regards
  44413.  
  44414. Andreas
  44415. -- 
  44416. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  44417. + proGIS Softwareentwicklung, Simulationssysteme, Beratung   + 
  44418. +        Germany - 52064 Aachen, Jakobstrasse 181            + 
  44419. + E-Mail: andreas@didymus.rmi.de VOICE: (49) 241 403 446     +
  44420.  
  44421. Approved: parallel@hubcap.clemson.edu
  44422. Follow-up: comp.parallel
  44423. Path: bounce-back
  44424. Newsgroups: comp.parallel
  44425. From: anderson@cs.unc.edu (James H. Anderson)
  44426. Subject: CFP(2nd): PODC94
  44427. Date: 7 Dec 1993 13:36:50 -0500
  44428. Organization: The University of North Carolina at Chapel Hill
  44429.  
  44430.  
  44431. IMPORTANT: To reduce expenses, we have decided to not distribute the PODC Call
  44432. for Papers and Conference Announcement via surface mail this year.  So, please
  44433. think twice before discarding this announcement.
  44434.  
  44435. ----------**********----------**********----------**********----------
  44436.  
  44437.  
  44438.                          CALL FOR PAPERS
  44439.  
  44440.    1994 ACM Symposium on Principles of Distributed Computing (PODC)
  44441.  
  44442. The Thirteenth ACM Symposium on Principles of Distributed Computing (PODC),
  44443. sponsored by ACM SIGACT and SIGOPS, will be held in Los Angeles, California,
  44444. USA, August 14-17, 1994.  Original research contributions are sought that
  44445. address fundamental issues in the theory and practice of distributed and
  44446. concurrent systems.  Specially sought are papers that illuminate connections
  44447. between practice and theory. Topics of interest include, but are not limited to:
  44448. Distributed algorithms and complexity,
  44449. Network protocols and architectures,
  44450. Multiprocessor algorithms and architectures,
  44451. Distributed operating systems --  principles and practice,
  44452. Concurrency control and synchronization,
  44453. Issues of asynchrony, synchrony, and real time,
  44454. Fault tolerance,
  44455. Cryptography and security,
  44456. Specification, semantics, and verification.
  44457.  
  44458. NEW CONFERENCE FORMAT:
  44459. This year's conference will have two tracks of presentations.  Long
  44460. presentations will follow the standard format of recent years (25 minute
  44461. talks), and will be accompanied by 10 page extended abstracts in the
  44462. proceedings. It is understood that the research reported in these abstracts is
  44463. original, and is submitted exclusively to this conference.  In addition, brief
  44464. presentations (10 minute talks) are invited as well.  These presentations will
  44465. be accompanied by a short (up to 1 page) abstract in the proceedings.
  44466. Presentations in this track are understood to reflect early research stages,
  44467. unpolished recent results, or informal expositions, and are not expected to
  44468. preclude future publication of an expanded or more polished version elsewhere.
  44469. (The popular ``rump'' session will still take place this year as well, although
  44470. it is expected to be shorter given the new track.)
  44471.  
  44472. SUBMISSIONS:
  44473. Please send 12 copies of a detailed abstract (printed double-sided if possible)
  44474. or a short abstract (1 page) with the postal address, e-mail address, and
  44475. telephone number of the contact author, to the program chair:
  44476.  
  44477. David Peleg
  44478. IBM T.J. Watson Research Center
  44479. P.O. Box 704
  44480. Yorktown Heights, New York 10598
  44481. E-mail: peleg@watson.ibm.com
  44482.  
  44483. To be considered by the committee, abstracts must be received by February 4,
  44484. 1994 (or postmarked January 28 and sent via airmail).  This is a firm deadline.
  44485. Acceptance notification will be sent by April 15, 1994.  Camera-ready versions
  44486. of accepted papers and short abstracts will be due May 10, 1994.
  44487.  
  44488. ABSTRACT FORMAT:
  44489. An extended abstract (for long presentation) must provide sufficient detail to
  44490. allow the program committee to assess the merits of the paper.  It should
  44491. include appropriate references and comparisons to related work.  It is
  44492. recommended that each submission begin with a succinct statement of the
  44493. problem, a summary of the main results, and a brief explanation of their
  44494. significance and relevance to the conference, all suitable for a non-specialist.
  44495. Technical development of the work, directed to the specialist, should follow.
  44496. Submitted abstracts should be no longer than 4,500 words (roughly 10 pages).
  44497. If the authors believe that more details are essential to substantiate the main
  44498. claims of the paper, they may include a clearly marked appendix that will be
  44499. read at the discretion of the program committee.
  44500.  
  44501. A short abstract (for brief presentation) should provide a much more concise
  44502. description (up to 1 page) of the results and their implications.
  44503.  
  44504. Authors should indicate in the cover letter for which track they wish to have
  44505. their submission considered. In general, the selection criteria for long
  44506. presentations are expected to be much more stringent than those for short ones.
  44507. At the authors' request, a (10-page) submission may be considered for both
  44508. tracks, with the understanding that it will be selected for at most one.  (Such
  44509. a request will in no way affect the chances of acceptance.)
  44510.  
  44511. PROGRAM COMMITTEE:
  44512. James Anderson (University of North Carolina),
  44513. Brian Bershad (University of Washington),
  44514. Israel Cidon (Technion and IBM T.J. Watson),
  44515. Michael J. Fischer (Yale University)
  44516. Shay Kutten (IBM T.J. Watson),
  44517. Yishay Mansour (Tel-Aviv University),
  44518. Keith Marzullo (University of California at San Diego),
  44519. David Peleg (Weizmann Institute, IBM T.J. Watson and Columbia University),
  44520. Mark Tuttle (DEC CRL),
  44521. Orli Waarts (IBM Almaden),
  44522. Jennifer Welch (Texas A&M University)
  44523.  
  44524. CONFERENCE CHAIR: James Anderson, University of North Carolina.
  44525. LOCAL ARRANGEMENTS CHAIR: Elizabeth Borowsky, UCLA.
  44526.  
  44527. ----------**********----------**********----------**********----------
  44528. Jim Anderson                            anderson@cs.unc.edu
  44529. PODC94 General Chair                    
  44530. Computer Science Dept                   919 962-1757  (voice)
  44531. University of North Carolina            919 962-1799  (fax)
  44532. Chapel Hill, NC  27599-3175
  44533.  
  44534.  
  44535. Approved: parallel@hubcap.clemson.edu
  44536. Follow-up: comp.parallel
  44537. Path: bounce-back
  44538. Newsgroups: comp.parallel
  44539. From: halstead@crl.dec.com (Bert Halstead)
  44540. Subject: Re: Data-parallel languages (non-CM C*)?
  44541. Organization: DEC Cambridge Research Lab
  44542. References: <1993Dec7.155305.4663@hubcap.clemson.edu>
  44543.  
  44544. In article <1993Dec7.155305.4663@hubcap.clemson.edu>, richards@wrl.EPI.COM (Fred Richards) writes:
  44545. > Is any data-parallel language emerging as a standard,
  44546. > much as PVM seems to be as a message-passing library?
  44547.  
  44548. Your later mention of C* suggests that you might not be interested in this
  44549. answer, but the closest thing to a "data-parallel language standard" is
  44550. probably High Performance Fortran.  (The specification can be obtained via
  44551. anonymous FTP from titan.cs.rice.edu in the directory public/HPFF/draft.)
  44552. Some early implementations are already available, and others will be coming
  44553. soon.                            -Bert Halstead
  44554.  
  44555. Approved: parallel@hubcap.clemson.edu
  44556. Follow-up: comp.parallel
  44557. Path: bounce-back
  44558. Newsgroups: comp.parallel
  44559. From: berryman-harry@CS.YALE.EDU (Harry Berryman)
  44560. Subject: Re: Data-parallel languages (non-CM C*)?
  44561. Date: 7 Dec 1993 16:49:39 -0500
  44562. Organization: /homes/na/berryman/.organization
  44563. References: <1993Dec7.155305.4663@hubcap.clemson.edu>
  44564. In-Reply-To: richards@wrl.EPI.COM's message of 6 Dec 1993 16:38:47 GMT
  44565.  
  44566.  
  44567. In article <1993Dec7.155305.4663@hubcap.clemson.edu> richards@wrl.EPI.COM (Fred Richards) writes:
  44568.  
  44569.  
  44570.    Is any data-parallel language emerging as a standard,
  44571.    much as PVM seems to be as a message-passing library?
  44572.  
  44573.    Does C*, or something *very* similar, run on any of the
  44574.    other MPP machines (Intel, nCube, MasPar, etc.)
  44575.  
  44576.  
  44577. There is a standardization for message passing going on, and
  44578. it's nearly complete. It's called MPI (Message Passing Interface).
  44579. PVM has some popularity, but is hardly a standard. 
  44580.  
  44581.  
  44582. scott berryman 
  44583. yale university computer science department
  44584.  
  44585.  
  44586.  
  44587. Approved: parallel@hubcap.clemson.edu
  44588. Follow-up: comp.parallel
  44589. Path: bounce-back
  44590. Newsgroups: comp.parallel
  44591. From: jmhill@duck.WPI.EDU (Jonathan M Hill)
  44592. Subject: Performance Analysis
  44593. Organization: Worcester Polytechnic Institute
  44594. Keywords: Performance Analysis, Benchmarking, optimization
  44595.  
  44596. Hello all;
  44597.      I have a neat program that I have been working hard to develop.
  44598. I am fast approaching that phase that happens in nearly all development
  44599. cycles, that is characterizing software performance, and optimization
  44600. for maximum performance.  This is rather nice, if I can find/develop
  44601. a set of analysis tools I will be able to not only make a confident
  44602. statement regarding performance, I will be able to use the tools to
  44603. hunt down nasty bugs that slow things down!
  44604.  
  44605.      My application is targeted at the MasPar systems.  Don't get the wrong
  44606. impression.  MasPar's MPPE is wonderful for all kinds of things, including
  44607. performance analysis.  I'm sorry to say that my bookshelf is sadly lacking
  44608. and I could use a few good references, please.
  44609.  
  44610.      If anyone can make reference to any good text books/articles that
  44611. present technigues/methods/concepts that are useful for performing just
  44612. this sort of thing, I'm sure that in addition to myself, others would be
  44613. interested as well
  44614.                                                Thanks in advance;
  44615.                                                    Jonathan
  44616.  
  44617.                                                     jmhill@ee.wpi.edu
  44618.  
  44619.  
  44620. Approved: parallel@hubcap.clemson.edu
  44621. Follow-up: comp.parallel
  44622. Path: bounce-back
  44623. Newsgroups: comp.parallel
  44624. From: mpourzan@cri.ens-lyon.fr (Makan Pourzandi)
  44625. Subject: Exponential of the matrix
  44626. Organization: Ecole Normale Superieure de Lyon
  44627. Reply-To: mpourzan@cri.ens-lyon.fr
  44628.  
  44629. Hi, 
  44630. I need to implement the exponential of a matrix for an algorithm which
  44631. concerns the diffusion equations.  I know a little about the parallel
  44632. implementations of the exponential of the matrix.  If there is something
  44633. already out there, I would be very appreciative on some information.
  44634. Does anyone know of the articles or technical reports ...  concerning
  44635. this subject ?
  44636.  
  44637. Please e-mail me to mpourzan@lip.ens-lyon.fr 
  44638. Thank you 
  44639.  
  44640. Makan Pourzandi, Lab. LIP-IMAG
  44641. ENS Lyon, 46 Allee d'Italie, 69364 Lyon Cedex 07 FRANCE
  44642. Tel. (+33) 72 72 85 03   Fax (+33) 72 72 80 80
  44643. e-mail : mpourzan@lip.ens-lyon.fr
  44644.  
  44645.  
  44646. Approved: parallel@hubcap.clemson.edu
  44647. Follow-up: comp.parallel
  44648. Path: bounce-back
  44649. Newsgroups: comp.parallel
  44650. From: jeremy@eik.ii.uib.no (Jeremy Cook)
  44651. Subject: Paragon Study Guide available
  44652. Organization: University of Bergen, Parallel Processing Laboratory
  44653. Reply-To: Jeremy.Cook@ii.uib.no
  44654.  
  44655. A self-teaching guide for the Intel Paragon is available from para//ab.
  44656.  
  44657. >From the introduction: 
  44658.   The objectives of this booklet are:
  44659.  
  44660.         to outline the topology of the Paragon supercomputer,
  44661.         to set out the salient features of computing with independent
  44662.             processors, each having its own data,
  44663.         to explain the details of the library of routines which
  44664.             provide support for parallel  computing,
  44665.         to demonstrate some of the aspects of parallel computing
  44666.             by means of simple examples,
  44667.         to provide sufficient detail of the operating system to
  44668.             allow readers to create and implement their own program examples.
  44669.  
  44670.  
  44671. The study guide is a compressed postscript file and 
  44672. can be retrieved from the parallab ftp server by anonymous ftp.
  44673.  
  44674.     host: ftp.ii.uib.no
  44675.     dir:  pub/tech_reports
  44676.     file: pl-jc-93.3.Z
  44677.  
  44678. Other studyguides for the MasPar/DECmpp and Intel iPSC computers are
  44679. also available.
  44680. -- 
  44681. ---
  44682.  Jeremy Cook, Senior Scientist \\Parallel processing lab/National MPP Centre \\
  44683.   ,-. ,-  ,- ,-   / / ,-  |-.  //Dept. of Informatics, University of Bergen, //
  44684.   |-' `-` |  `-` / /  `-` `-'  \\High Technology Centre, N-5020 Bergen,Norway\\
  44685.      Jeremy.Cook@ii.uib.no     //phone: +47 55 54 41 74  fax: +47 55 54 41 99//
  44686.  
  44687. Approved: parallel@hubcap.clemson.edu
  44688. Follow-up: comp.parallel
  44689. Path: bounce-back
  44690. Newsgroups: comp.parallel
  44691. From: jabf@festival.ed.ac.uk (J Blair-Fish)
  44692. Subject: General Purpose Parallel Computing Meeting
  44693. Message-ID: <CHpqDE.Lsy@festival.ed.ac.uk>
  44694. Organization: Edinburgh University
  44695.  
  44696.  
  44697.                         The  British  Computer  Society
  44698.                     Parallel  Processing  Specialist  Group
  44699.                                    (BCS PPSG)
  44700.  
  44701.                      General  Purpose  Parallel  Computing
  44702.  
  44703.  
  44704.            A One Day Open Meeting with Invited and Contributed Papers
  44705.  
  44706.             22 December 1993, University of Westminster, London, UK
  44707.  
  44708.  
  44709.                                Invited speakers :
  44710.  
  44711.                         Les Valiant, Harvard University
  44712.                    Bill McColl, PRG, University of Oxford, UK
  44713.                               David May, Inmos, UK
  44714.  
  44715.  
  44716. A key factor for the growth of parallel computing is the availability  of  port-
  44717. able  software.   To be portable, software must be written to a model of machine
  44718. performance with universal applicability. Software providers  must  be  able  to
  44719. provide  programs whose performance will scale with machine and application size
  44720. according to agreed principles.  This environment presupposes a model of  paral-
  44721. lel  performance, and one which will perform well for irregular as well as regu-
  44722. lar patterns of interaction.  Adoption of a common model by machine  architects,
  44723. algorithm  &  language  designers  and programmers is a precondition for general
  44724. purpose parallel computing.
  44725.  
  44726. Valiant's Bulk Synchronous Parallel (BSP) model provides a bridge between appli-
  44727. cation,  language  design and architecture for parallel computers. BSP is of the
  44728. same nature for parallel computing as the Von Neumann model  is  for  sequential
  44729. computing.   It  forms  the focus of a project for scalable performance parallel
  44730. architectures supporting architecture independent software. The  model  and  its
  44731. implications  for  hardware and software design will be described in invited and
  44732. contributed talks.
  44733.  
  44734.  
  44735.  
  44736. The PPSG, founded in 1986, exists to foster development  of  parallel  architec-
  44737. tures,  languages and applications & to disseminate information on parallel pro-
  44738. cessing. Membership is completely open; you do not have to be a  member  of  the
  44739. British  Computer  Society.  For further information about the group contact ei-
  44740. ther of the following :
  44741.  
  44742. Chair : Mr. A. Gupta                     Membership Secretary: Dr. N. Tucker
  44743. Philips Research Labs, Crossoak Lane,    Paradis Consultants, East Berriow,
  44744. Redhill, Surrey, RH1 5HA, UK             Berriow Bridge, North Hill, Nr. Launceston,
  44745. gupta@prl.philips.co.uk                  Cornwall, PL15 7NL, UK
  44746.  
  44747.  
  44748.           Please share this information and display this announcement
  44749.  
  44750.  
  44751.                         The  British  Computer  Society
  44752.                     Parallel  Processing  Specialist  Group
  44753.                                    (BCS PPSG)
  44754.  
  44755.                      General  Purpose  Parallel  Computing
  44756.  
  44757.                                22 December 1993,
  44758.                          Fyvie Hall, 309 Regent Street,
  44759.                      University of Westminster, London, UK
  44760.  
  44761.  
  44762. Provisional Programme
  44763.  
  44764. 9 am-10 am  Registration & Coffee
  44765.  
  44766.      L. Valiant,  Harvard University,
  44767.          "Title to be announced"
  44768.      W. McColl,  Oxford University,
  44769.          Programming models for General Purpose Parallel Computing
  44770.      A. Chin,  King's College,  London University,
  44771.          Locality of Reference in Bulk-Synchronous Parallel Computation
  44772.      P. Thannisch et al,  Edinburgh University,
  44773.          Exponential Processor Requirements for Optimal Schedules
  44774.          in Architecture with Locality
  44775.  
  44776.  Lunch
  44777.  
  44778.      D. May,  Inmos
  44779.          "Title to be announced"
  44780.      R. Miller,  Oxford University,
  44781.          A Library for Bulk Synchronous Parallel Programming
  44782.      C. Jesshope et al,  Surrey University,
  44783.          BSPC and the N-Computer
  44784.  
  44785. Tea/Coffee
  44786.  
  44787.      P. Dew et al,  Leeds University,
  44788.          Scalable Parallel Computing using the XPRAM model
  44789.      S. Turner et al,  Exeter University,
  44790.          Portability and Parallelism with `Lightweight P4'
  44791.      N. Kalentery et al,  University of Westminster,
  44792.          From BSP to a Virtual Von Neumann Machine
  44793.      R. Bisseling,  Utrecht University,
  44794.          Scientific Computing on Bulk Synchronous Parallel Architectures
  44795.      B. Thompson et al,  University College of Swansea,
  44796.          Equational Specification of Synchronous Concurrent Algorithms and 
  44797.          Architectures
  44798.  
  44799. 5.30 pm  Close
  44800.  
  44801.  
  44802.           Please share this information and display this announcement
  44803.  
  44804.  
  44805.  
  44806.        The British Computer Society Parallel Processing Specialist Group
  44807.  
  44808.  
  44809. Booking Form/Invoice                                  BCS VAT No. : 440-3490-76
  44810.  
  44811.  
  44812. Please reserve a place at the Conference on General Purpose Parallel Computing,
  44813. London, December 22 1993, for the individual(s) named below.
  44814.  
  44815.  
  44816. Name of delegate        BCS membership no.       Fee      VAT      Total
  44817.                          (if  applicable)
  44818. ___________________________________________________________________________
  44819.  
  44820. ___________________________________________________________________________
  44821.  
  44822. ___________________________________________________________________________
  44823.  
  44824.  
  44825. Cheques, in pounds sterling, should be made payable to "BCS Parallel Processing
  44826. Specialist Group".  Unfortunately credit card bookings cannot be accepted.
  44827.  
  44828.  
  44829. The delegate fees (including lunch, refreshments and proceedings) are 
  44830. (in pounds sterling) :
  44831.  
  44832.      Members of both PPSG & BCS:   55  +  9.62  VAT  =  64.62
  44833.      PPSG or BCS members:          70  +  12.25 VAT  =  82.25
  44834.      Non members:                  90  +  15.75 VAT  = 105.75
  44835.      Full-time students:           25  +   4.37 VAT  =  29.37
  44836.  
  44837. (Students should provide a letter of endorsement from their supervisor 
  44838. that also clearly details their institution)
  44839.  
  44840.  
  44841. Contact Address:    ___________________________________________
  44842.  
  44843.                     ___________________________________________
  44844.  
  44845.                     ___________________________________________
  44846.  
  44847. Email address:      _________________
  44848.  
  44849. Date: _________________    Day time telephone: ________________
  44850.  
  44851.  
  44852. Places are limited so please return this form as soon as possible to :
  44853.  
  44854.              Mrs C. Cunningham
  44855.              BCS PPSG
  44856.              2 Mildenhall Close, Lower Earley,
  44857.              Reading, RG6 3AT, UK
  44858.              (Phone 0734 665570)
  44859.  
  44860.  
  44861. -- 
  44862.  
  44863.  
  44864.  
  44865. -- 
  44866.  
  44867.  
  44868.  
  44869.  
  44870. Approved: parallel@hubcap.clemson.edu
  44871. Follow-up: comp.parallel
  44872. Path: bounce-back
  44873. Newsgroups: comp.parallel
  44874. From: andym@dcs.qmw.ac.uk (macfarlane)
  44875. Subject: shared memory vs message passing
  44876. Message-ID: <CHq2vL.6vv@dcs.qmw.ac.uk>
  44877. Sender: usenet@dcs.qmw.ac.uk (Usenet News System)
  44878. Organization: Computer Science Dept, QMW, University of London
  44879. X-Newsreader: TIN [version 1.1 PL8]
  44880. Date: Wed, 8 Dec 1993 15:26:07 GMT
  44881.  
  44882.  
  44883. Can anyone send me references for shared memory systems against
  44884. message passing system on distributed memorys ie advantages/disadvantages
  44885.  
  44886. Andrew MacFarlane
  44887. QMW College
  44888. University of London
  44889.  
  44890. Approved: parallel@hubcap.clemson.edu
  44891. Follow-up: comp.parallel
  44892. Path: bounce-back
  44893. Newsgroups: comp.parallel
  44894. From: shankar@crhc.uiuc.edu (Shankar Ramaswamy)
  44895. Subject: help with function parallel codes
  44896. Date: 8 Dec 1993 16:02:49 GMT
  44897. Organization: Center for Reliable and High-Performance Computing, University of Illinois at Urbana-Champaign
  44898.  
  44899. i am looking for references to algorithms/programs that
  44900. have functional parallelism. let me clarify what i mean
  44901. by the term - functional parallelism exists when two or
  44902. more loops/nested loops of the algorithm/program can 
  44903. execute in parallel. a simple example would be a multiply
  44904. of two complex matrices - the real part of the product
  44905. can be computed in parallel with the imaginary part of
  44906. the product, i.e. :
  44907.  
  44908. /* loop 1 */
  44909.  
  44910. for i=1,n
  44911.     for j=1,n
  44912.         for k=1,n
  44913.             creal[i][j]+=areal[i][k]*breal[k][j] - aimag[i][k]*bimag[k][j]
  44914.         end
  44915.     end
  44916. end
  44917.  
  44918. /* loop 2 */
  44919.  
  44920. for i=1,n
  44921.     for j=1,n
  44922.         for k=1,n
  44923.             cimag[i][j]+=areal[i][k]*bimag[k][j] + aimag[i][k]*breal[k][j]
  44924.         end
  44925.     end
  44926. end
  44927.  
  44928. loop 1 and loop 2 can execute independently.
  44929.  
  44930. if any others are interested in such algorithms/program, 
  44931. send me mail - i will collect all references sent to me 
  44932. and post them on the net. 
  44933.  
  44934. thanks,
  44935.  
  44936. -- 
  44937.  
  44938. shankar ramaswamy
  44939.  
  44940. phone : (217)244-7168    {office}
  44941.     (217)367-7615    {home}
  44942.  
  44943. email : shankar@crhc.uiuc.edu
  44944.  
  44945. fax   : (217)244-5685
  44946.  
  44947.  
  44948.    ********************************************************
  44949.   *                                                      *
  44950.  *  Proud Member of the PARADIGM team                   *
  44951. *                                                      *
  44952. *   PARADIGM : The Mother of all FORTRAN compilers     *
  44953.  *  FORTRAN  : The Mother of all programming languages  *
  44954.   *                                                      *
  44955.    ********************************************************
  44956.  
  44957.  
  44958.  
  44959. Approved: parallel@hubcap.clemson.edu
  44960. Follow-up: comp.parallel
  44961. Path: bounce-back
  44962. Newsgroups: comp.parallel
  44963. From: cary@esl.com (Cary Jamison)
  44964. Subject: Re: Data-parallel languages (non-CM C*)?
  44965. Organization: ESL, Inc.  A TRW Company
  44966. References: <1993Dec7.155305.4663@hubcap.clemson.edu>
  44967.  
  44968. In article <1993Dec7.155305.4663@hubcap.clemson.edu>, richards@wrl.EPI.COM
  44969. (Fred Richards) wrote:
  44970. > Is any data-parallel language emerging as a standard,
  44971. > much as PVM seems to be as a message-passing library?
  44972. > Does C*, or something *very* similar, run on any of the
  44973. > other MPP machines (Intel, nCube, MasPar, etc.)
  44974.  
  44975. Can't say that it's an emerging standard, but HyperC seems promising.  It
  44976. is running on workstation clusters (usually built on PVM), CM, MasPar, and
  44977. is being ported to others such as nCube.
  44978.  
  44979. Cary Jamison
  44980.  
  44981.    EEEEE   SSS   L      Excellence                       Cary Jamison
  44982.    E      S      L       Service                         cary@esl.com
  44983.    EEEE    SSS   L        Leadership
  44984. Approved: parallel@hubcap.clemson.edu
  44985. Follow-up: comp.parallel
  44986. Path: bounce-back
  44987. Newsgroups: comp.parallel
  44988. From: hickman@cwis.unomaha.edu (Betty Hickman)
  44989. Subject: Sequent parallel programming reference needed
  44990. Message-ID: <hickman.755386004@cwis>
  44991. Sender: news@news.unomaha.edu (UNO Network News Server)
  44992. Organization: University of Nebraska at Omaha
  44993.  
  44994. I'm trying to get a copy of the latest edition of Sequent's Guide to Parallel
  44995. Programming book.  The first two editions were published in-house I believe,
  44996. but I don't know who published the latest edition.  Any info would be 
  44997. appreciated.
  44998.  
  44999. Betty Hickman
  45000. hickman@felix.unomaha.edu
  45001.  
  45002. Approved: parallel@hubcap.clemson.edu
  45003. Follow-up: comp.parallel
  45004. Path: bounce-back
  45005. Newsgroups: comp.sys.super,comp.parallel
  45006. From: cfreese@super.org (Craig F. Reese)
  45007. Subject: Business Applications on Supercomputers....
  45008. Organization: Supercomputing Research Center (Bowie, MD)
  45009.  
  45010. Hi all.
  45011.  
  45012. It seems that supercomputer manufacturers are looking more and more
  45013. towards the commercial/business areas as their markets.  
  45014.  
  45015. I'm curious.  What are the types of computations typically done in
  45016. these areas?
  45017.  
  45018. I'm interested in better understanding how a business supercomputer
  45019. might be architected differently than a scientific one (if there really
  45020. is any significant difference).  
  45021.  
  45022. Anyway... If anyone has stumbled across any good references or kernel
  45023. sets that apply to business applications, please post (or Email me).
  45024.  
  45025. Many thanks,
  45026.  
  45027. Craig
  45028.  
  45029. P.S. I'm looking for something more than a sorts, I/O, lots of disk
  45030. type answer. I realize that this is an open ended question and not
  45031. easily answered in any detail.
  45032.  
  45033. *** The opinions expressed are my own and do not necessarily reflect 
  45034. *** those of any other land dwelling mammals....
  45035.  
  45036. "The problem ain't what we don't know; it's what we know that just ain't so
  45037. Either we take familiar things so much for granted that we never think about 
  45038. how they originated, or we "know" too much about them to investigate closely."
  45039. -----------------
  45040. Craig F. Reese                           Email: cfreese@super.org
  45041. Institute for Defense Analyses/
  45042. Supercomputing Research Center
  45043. 17100 Science Dr.
  45044. Bowie, MD  20715-4300
  45045.  
  45046. Approved: parallel@hubcap.clemson.edu
  45047. Follow-up: comp.parallel
  45048. Path: bounce-back
  45049. Newsgroups: comp.parallel
  45050. From: stefan@SSD.intel.com (Stefan Tritscher)
  45051. Subject: Re: Connect mouse to parallel?
  45052. Keywords: chuckle, :-)
  45053. Organization: Supercomputer Systems Divison, Intel Corp.
  45054. References:  <1993Dec5.215447.12636@msuvx1.memst.edu>
  45055.  
  45056. In article <1993Dec5.215447.12636@msuvx1.memst.edu>, hus@msuvx1.memst.edu writes:
  45057. |> Can I connect my mouse to the parallel port?  How?
  45058. |> Thanks.   
  45059.  
  45060. No - try comp.serial.
  45061.  
  45062. --Stefan :-)
  45063.  
  45064. -- 
  45065. Stefan Tritscher               Intel Corporation | e-mail: stefan@esdc.intel.com
  45066. European Supercomputer Development Center (ESDC) | phone:  +49-89-99143-307
  45067. Dornacher Str. 1, 85622 Feldkirchen b. M., FRG   | fax:    +49-89-99143-932
  45068.  
  45069. Approved: parallel@hubcap.clemson.edu
  45070. Follow-up: comp.parallel
  45071. Path: bounce-back
  45072. Newsgroups: comp.parallel
  45073. From: Sven-Bodo Scholz <sbs@informatik.uni-kiel.d400.de>
  45074. Subject:  looking for a functional language on distributed memory machines
  45075.  
  45076.  We are interested in functional languages which are tailormade for 
  45077.  running "real world" numerical applications on distributed memory systems
  45078.  (e.g. nCUBE, workstation cluster).
  45079.  
  45080.  So our questions are:
  45081.  - are there any implementations of functional languages which already support
  45082.    distributed memory machines (e.g. SISAL ???)
  45083.  - if so, where can we find references on state of the art literature?
  45084.  - does anybody do respectively who is doing research in that field?
  45085.  
  45086.  The emphasis of our research lies on "high performance computing" and 
  45087.  "large" applications. Hence systems supporting arrays, so called
  45088.  data parallelism, and destructive updates are of major interest.
  45089.  SISAL seems to be quite appropriate but we were not able to find a
  45090.  version which supports distributed memory architectures.
  45091.  
  45092.  
  45093.  We are interested in any hints or advices via email or postings.
  45094.  
  45095.  
  45096.  Thanks in advance
  45097.        Sven-Bodo
  45098.  
  45099. --
  45100. Sven-Bodo Scholz                        University of Kiel
  45101. email: sbs@informatik.uni-kiel.d400.de  Department of Computer Science
  45102. Phone: +49-431-5604-52                  Preusserstr. 1-9, 24105  Kiel
  45103. Fax: +49-431-566143                     Germany
  45104.  
  45105.  
  45106.  
  45107. Approved: parallel@hubcap.clemson.edu
  45108. Follow-up: comp.parallel
  45109. Path: bounce-back
  45110. Newsgroups: comp.parallel
  45111. From: hcl@fai.com (Han Lung)
  45112. Subject: Information on Paragon
  45113. Keywords: Paragon performance
  45114. Sender: hcl@fai.com
  45115. Organization: Fujitsu Systems Business of America
  45116. References: <1993Dec6.143410.4616@hubcap.clemson.edu>
  45117. Date: Thu, 9 Dec 1993 17:08:19 GMT
  45118. Apparently-To: uunet!comp-parallel
  45119.  
  45120.  
  45121. This is a request for information.  In Jack Dongarra's Linpack
  45122. benchmark report, a 1872-processor Paragaon is listed as having a peak
  45123. performance of 94 GFLOPS, which translates to 50 MFLOPS/processor.  The
  45124. i860/XP microprocessor used in the Paragon, however, has a peak speed
  45125. of 75 MFLOPS (1 multiply/2 clocks + 1 add/clock @ 50 MHz).  We believe
  45126. that the Paragon should be rated at 140 GFLOPS.  (In other words,
  45127. Paragon's effiency should be lower by one-third.)  Jack Dongarra
  45128. contends that, since most applications do a multiply and add together,
  45129. they cannot make use of 1 add/every other clock, thus 50 MFLOPS (1
  45130. multiply/2 clocks + 1 add/2 clocks = 2 ops/2 clocks = 1 op/clock).
  45131. However, an HPCwire report dated Oct. 28, 1993 states:
  45132.  
  45133. > 2180) SANDIA BREAKS 100 GFLOPS MARK ON 1,840-NODE PARAGON SYSTEM 44 Lines 
  45134. >    Albuquerque, N.M. -- Scientists at Sandia National Laboratories have 
  45135. > achieved record-setting performance for the second time in as many months, 
  45136. > as they recorded 102.050 GFLOPS on a double-precision complex LU
  45137.                    ^^^^^^^^^^^^^^
  45138. > factorization running on their full 1,840-node Intel Paragon supercomputer.
  45139.  
  45140. The figures imply that each node runs at 55.5 MFLOPS (102 GFLOPS/1840). 
  45141. This exceeds the per-node peak performance of the 1872-node Paragon
  45142. listed in Table 3 of the Linpack report dated Nov. 23, 1993 (94
  45143. GFLOPS/1872 = 50 MFLOPS/node).  Unless the clock rate of the Paragon
  45144. used at Sandia is substantially faster than 50 MHz, the peak rating
  45145. which appears in Table 3 cannot be correct.
  45146.  
  45147. Does anyone know, or can anyone find out, the exact processor count and
  45148. the clock rate for the Paragon installed at Sandia?
  45149.  
  45150. As an aside, I don't see how one can get more than 50 MFLOPS from a
  45151. processor, even for a complex multiply/add (2 +'s for add, 4 x's and 2
  45152. +'s for multiply = 4 x's and 4 +'s, which takes 8 clocks, so on average
  45153. 1 op/clock, which gives 50 MFLOPS.  Any ideas on how to make use of the
  45154. additional add?
  45155.  
  45156. Thanks for any help.
  45157. =====================================
  45158. Han Lung
  45159. Supercomputer Applications Department
  45160.  
  45161. Fujitsu Systems Business of America
  45162. 5200 Patrick Henry Drive
  45163. Santa Clara, CA 95054
  45164.  
  45165. Tel: (408) 988-8012 x263
  45166. Fax: (408) 492-1982
  45167. E-mail: hcl@fai.com
  45168. =====================================
  45169.  
  45170. Approved: parallel@hubcap.clemson.edu
  45171. Follow-up: comp.parallel
  45172. Path: bounce-back
  45173. Newsgroups: comp.sys.sequent,comp.parallel
  45174. From: jmc3@engr.engr.uark.edu (Dr. James M. Conrad)
  45175. Subject: Steal your idle CPU cycles
  45176. Sender: netnews@engr.uark.edu (NetNews Administrator)
  45177. Nntp-Posting-Host: jconrad.engr.uark.edu
  45178. Reply-To: jmc3@engr.engr.uark.edu
  45179. Organization: University of Arkansas College of Engineering
  45180. Date: Thu, 9 Dec 1993 19:58:02 GMT
  45181. Content-Type: text
  45182. Content-Length: 606
  45183.  
  45184. My two sources of Sequent machines have dried up.  I need to finish some
  45185. code measurements for potential conference papers.  Does anyone out there
  45186. have some spare cycles they would let a poor Assistant Professor have??
  45187.  
  45188. Thanks!!!!!!!
  45189. -------------------------------------------------------------------------
  45190. James M. Conrad, Assistant Professor           jmc3@jconrad.engr.uark.edu
  45191. Computer Systems Engineering Department           jmc3@engr.engr.uark.edu
  45192. University of Arkansas, 313 Engineering Hall, Fayetteville, AR 72701-1201
  45193. Dept: (501) 575-6036       Office: (501) 575-6039     FAX: (501) 575-5339
  45194.  
  45195.  
  45196.  
  45197.  
  45198. Approved: parallel@hubcap.clemson.edu
  45199. Follow-up: comp.parallel
  45200. Path: bounce-back
  45201. Newsgroups: comp.parallel
  45202. From: jet@nas.nasa.gov (J. Eric Townsend)
  45203. Subject: Re: Data-parallel languages (non-CM C*)?
  45204. Sender: news@nas.nasa.gov (News Administrator)
  45205. Organization: NAS/NASA-Ames Research Center
  45206. References: <1993Dec7.155305.4663@hubcap.clemson.edu>
  45207.     <1993Dec9.142826.1645@hubcap.clemson.edu>
  45208.  
  45209. "cary" == Cary Jamison <cary@esl.com> writes:
  45210. cary> Can't say that it's an emerging standard, but HyperC seems
  45211. cary> promising.  It is running on workstation clusters (usually built
  45212. cary> on PVM), CM, MasPar, and is being ported to others such as
  45213. cary> nCube.
  45214.  
  45215. Is this similar to Babel's HyperTasking stuff he did while at Intel?
  45216.  
  45217. --
  45218. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  45219. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  45220. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  45221. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  45222.  
  45223. Approved: parallel@hubcap.clemson.edu
  45224. Follow-up: comp.parallel
  45225. Path: bounce-back
  45226. Newsgroups: comp.parallel
  45227. From: anshu@eng.umd.edu (Anshu Mehra)
  45228. Subject: Parallel Computing in Distributed systems
  45229. Date: 9 Dec 1993 22:37:11 GMT
  45230. Organization: University of Maryland, College Park
  45231. Nntp-Posting-Host: raphael.eng.umd.edu
  45232. Originator: anshu@raphael.eng.umd.edu
  45233.  
  45234.  
  45235. I have to run a set of independent programs (by independent, I mean
  45236. that there in no transfer of data from one program to another) on the
  45237. set of Spark/Sun Stations. The advantage of running these programs on
  45238. differnt Sun stations is time saving. 
  45239.  
  45240. Can anyone help me with this problem. What language should I use
  45241. to write the code, which will execute all these programs concurrently
  45242. on different machine. BTW, these programs are coded in C.
  45243.  
  45244. Any comments will be highly appreciated.
  45245.  
  45246. Thanks
  45247.  
  45248. Anshu (anshu@eng.umd.edu)
  45249.  
  45250. Approved: parallel@hubcap.clemson.edu
  45251. Follow-up: comp.parallel
  45252. Path: bounce-back
  45253. Newsgroups: comp.parallel
  45254. Sender: netnews@engr.uark.edu (NetNews Administrator)
  45255. To: comp-parallel@relay1.uu.net
  45256. Newsgroups: alt.sources.wanted,comp.sources.wanted,comp.parallel,comp.parallel.pvm
  45257. Path: cseg01.engr.uark.edu!cab3
  45258. From: cab3@cseg01.engr.uark.edu (Chad A. Bersche)
  45259. Subject: Wanted - Traveling Salesman Code
  45260. Summary: Need code for Traveling Salesman, preferrably parallel
  45261. Keywords: Parallel, salesman, traveling, wanted
  45262. Sender: netnews@engr.uark.edu (NetNews Administrator)
  45263. Nntp-Posting-Host: cseg01.engr.uark.edu
  45264. Organization: University of Arkansas
  45265. Date: Fri, 10 Dec 1993 06:17:10 GMT
  45266. Content-Type: text
  45267. Content-Length: 1082
  45268.  
  45269.  
  45270. I am trying to locate some code which solves the Traveling Salesman 
  45271. problem.  I am attempting to do this on any of the following parallel
  45272. processing machines:  PVM, N-Cube, or CM-2.  I would even settle for 
  45273. sequential code at this point, just to have a place to start from.
  45274. I'm needing to get started on this as soon as possible (I've planned
  45275. on it this weekend), and I'll settle for any pointers to existing code
  45276. that may exist.  Algorithms are also welcome.  I'm in the middle of 
  45277. finals here, so I would prefer e-mail responses so I don't have to 
  45278. browse through the newsgroups right now.  I'd be GLAD to summarize 
  45279. anything I receive if there is sufficient interest in it.
  45280.  
  45281. Thanks in advance for any assistance!
  45282.  
  45283. -- 
  45284. cab3@engr.engr.uark.edu --    Chad A. Bersche, Systems Administrator    --
  45285. cab3@uafhp.uark.edu     --  Department of Computer Systems Engineering  --
  45286. cab3@vnet.ibm.com       -- IBM Customer Solution Center Network Support --
  45287. Look, would it save you a lot of time if I just gave up and went mad now?  
  45288. Approved: parallel@hubcap.clemson.edu
  45289. Follow-up: comp.parallel
  45290. Path: bounce-back
  45291. Newsgroups: comp.parallel
  45292. From: Simon.N.Smith@cm.cf.ac.uk (Simon McIntosh-Smith)
  45293. Subject: guessing loop iterations?
  45294. Message-ID: <1993Dec10.093157.3312@cm.cf.ac.uk>
  45295. Sender: news@cm.cf.ac.uk (Network News System)
  45296. Organization: University of Wales College of Cardiff, Cardiff, WALES, UK.
  45297. Date: Fri, 10 Dec 1993 09:31:55 +0000
  45298.  
  45299. I'm performing analysis on conditional loops like the following:
  45300.  
  45301.     while (<some condition>)
  45302.     {
  45303.        <some code that alters the conditions value>
  45304.     }
  45305.  
  45306. and I want to make a guess at how many times a loop like this
  45307. might iterate.   Can anyone point me towards recent work on this?
  45308. It looks like the kind of thing performance analysers would do.
  45309. One piece of information I have so far is that conditional loops
  45310. performing convergant calculations will commonly perform around
  45311. 50 iterations [1].  Any more gems like this would be greatly
  45312. appreciated.  Summary to the net will follow if there is interest.
  45313.  
  45314. Thanks for your help,
  45315.  
  45316. Simon
  45317.  
  45318. [1] @article{gabber:p3c,
  45319.       author  = {Amir Averbuch and Eran Gabber and Amiram Yehudai},
  45320.       journal = {{IEEE} Software},
  45321.       month   = mar,
  45322.       number  = {2},
  45323.       pages   = {71--81},
  45324.       title   = {Portable, Parallelising Pascal Compiler},
  45325.       volume  = {10},
  45326.       year    = {1993}
  45327.     }
  45328.  
  45329.  
  45330. Simon N. McIntosh-Smith, PhD candidate    |  Email : Simon.N.Smith@cm.cf.ac.uk
  45331. Room M/1.36 Department of Computing Maths |  Phone : +44 (0)222 874000
  45332. University of Wales, College of Cardiff   |  Fax   : +44 (0)222 666182
  45333. PO Box 916, Cardiff, Wales, CF2 4YN, U.K. |  Home  : +44 (0)222 560522
  45334.  
  45335. Approved: parallel@hubcap.clemson.edu
  45336. Follow-up: comp.parallel
  45337. Path: bounce-back
  45338. Newsgroups: comp.parallel
  45339. From: brunzema@DBresearch-berlin.de (Martin Brunzema)
  45340. Subject: Re: Data-parallel languages (non-CM C*)?
  45341. Organization: Daimler Benz Systemtechnik
  45342. References: <1993Dec7.155305.4663@hubcap.clemson.edu>
  45343.  
  45344. richards@wrl.EPI.COM (Fred Richards) writes:
  45345.  
  45346. >Is any data-parallel language emerging as a standard,
  45347. >much as PVM seems to be as a message-passing library?
  45348.  
  45349. >Does C*, or something *very* similar, run on any of the
  45350. >other MPP machines (Intel, nCube, MasPar, etc.)
  45351.  
  45352. Hatcher from the university of New Hampshire (?) has developed
  45353. Dataparallel-C for the Intel iPSC/2 and the nCube some time ago.
  45354. Dataparallel-C bases on an former version of the C* language (with
  45355. domains).  It has also been ported to a meiko, but its far away from
  45356. beeing a standard. 
  45357. -- 
  45358.                                    __o   one
  45359. Martin Brunzema                  _`\<_   car
  45360. brunzema@DBresearch-berlin.de   (_)/(_)  less
  45361.  
  45362. Approved: parallel@hubcap.clemson.edu
  45363. Follow-up: comp.parallel
  45364. Path: bounce-back
  45365. Newsgroups: comp.parallel
  45366. From: Frank.Kemper@arbi.informatik.uni-oldenburg.de (Frank Kemper)
  45367. Subject: LINDA - What has happened ?
  45368. Organization: University of Oldenburg, Germany
  45369. Date: Fri, 10 Dec 1993 10:22:34 GMT
  45370.  
  45371. I am a Student, who has to work on the theme LINDA. The base for my work is
  45372. an article from 1988, about the LINDA Coprocessor. And now I am interested
  45373. in the State of Art of Linda. It would be nice, if anyone could help me.
  45374. My E-Mail Adress ist : Frank.Kemper@Informatik.Uni-Oldenburd.DE
  45375.  
  45376. Frank Kemper
  45377.  
  45378.  
  45379.   
  45380.  
  45381. Approved: parallel@hubcap.clemson.edu
  45382. Follow-up: comp.parallel
  45383. Path: bounce-back
  45384. Newsgroups: comp.parallel
  45385. From: ucapcdt@ucl.ac.uk (Christopher David Tomlinson)
  45386. Subject: UK address for MASPAR
  45387. Organization: Bloomsbury Computing Consortium
  45388.  
  45389. Could anybody please supply me with the UK address for MASPAR Computing Corp.
  45390. I have just had a letter returned from the following address;
  45391. First Base, Beacontree Plaza,
  45392. Gillette Way, 
  45393. READING RG2 OBP
  45394.  
  45395. Thanks for any help
  45396.  
  45397. Chris Tomlinson
  45398. (c.tomlinson@ucl.ac.uk)
  45399.  
  45400.  
  45401. Approved: parallel@hubcap.clemson.edu
  45402. Follow-up: comp.parallel
  45403. Path: bounce-back
  45404. Newsgroups: comp.parallel
  45405. From: zz@cs.purdue.edu (Zhongyun Zhang)
  45406. Subject: Address of PGI?
  45407. Organization: Purdue University, West Lafayette, IN
  45408.  
  45409. Would any one tell me the contact info for the company named PGI
  45410. that developed i860 compilers for Intel iPSC/Delta/Paragon?
  45411.  
  45412. Thanks.
  45413.  
  45414. Tony Z. Zhang
  45415. Dept of Computer Sciences
  45416. Purdue University
  45417. West Lafayette, IN 47907
  45418.  
  45419. Email: zz@cs.purdue.edu
  45420.  
  45421. Approved: parallel@hubcap.clemson.edu
  45422. Follow-up: comp.parallel
  45423. Path: bounce-back
  45424. Newsgroups: comp.parallel
  45425. From: tuecke@mcs.anl.gov (Steve Tuecke)
  45426. Subject: Predoctoral Appointments at Argonne
  45427. Organization: Argonne National Laboratory, Chicago, Illinois
  45428.  
  45429.  
  45430.                       Predoctoral Positions
  45431.             Mathematics and Computer Science Division
  45432.                    Argonne National Laboratory
  45433.  
  45434.  
  45435. Argonne National Laboratory invites outstanding candidates to ap-
  45436. ply for two predoctoral positions in the Mathematics and Computer
  45437. Science Division.
  45438.  
  45439. The purpose of the predoctoral appointment is to  offer  outreach
  45440. opportunities  for developing the full potential (i.e., Ph.D. de-
  45441. gree) of underutilized protected groups. A divisional mentor will
  45442. assist  participants in preparing a thesis proposal, enrolling in
  45443. a doctoral program, and in returning to  Argonne  for  subsequent
  45444. summers, thesis appointments, and postdoctoral appointments.
  45445.  
  45446. The  predoctoral  appointees  will  participate  in  an  exciting
  45447. research  and  development project designing and implementing new
  45448. parallel programming languages and tools.
  45449.  
  45450. The first appointee will focus on the design  and  implementation
  45451. of a compiler for Fortran M, a parallel extension to Fortran. Ex-
  45452. perience in compilers is desirable.
  45453.  
  45454. The second appointee will focus on the design and  implementation
  45455. of  a  parallel, threaded run-time system called Nexus, used as a
  45456. compiler target for Fortran M and other parallel  languages.  Ex-
  45457. perience in threads and parallel programming is desirable.
  45458.  
  45459. Candidates should have knowledge and experience in the  following
  45460. areas:  programming  with  C, C++, and Fortran in a Unix environ-
  45461. ment; parallel programming tools,  programming  language  design;
  45462. compilers;  and  parallel applications.  A good knowledge of com-
  45463. puter architecture and  computer  systems  organization  is  pre-
  45464. ferred. The successful candidates will create, maintain, and sup-
  45465. port high-quality, imaginative software on a wide variety of com-
  45466. puters, including networks of workstations and massively parallel
  45467. supercomputers, such as our 128-node  IBM  9076  Scalable  POWER-
  45468. Parallel System 1 and a 512-processor Intel Paragon.
  45469.  
  45470. Applicants must have received their  M.S.  not  more  than  three
  45471. years  prior  to  the beginning of the appointment.  Applications
  45472. must be addressed to Walter McFall, Box  mcs-predoc,   Employment
  45473. and  Placement, Argonne National Laboratory, 9700 S. Cass Avenue,
  45474. Argonne, IL  60439, and must include a resume'  and  the  names
  45475. and  addresses of three references. For further information, con-
  45476. tact Steven Tuecke (tuecke@mcs.anl.gov; 708-252-7162).
  45477.  
  45478. Initial appointments are for a period of one year, but may be ex-
  45479. tended  in  increments  of  one year or less, to a maximum of two
  45480. years.  U.S. citizens and/or permanent residents are eligible  to
  45481. participate in this program.
  45482.  
  45483. Argonne is an affirmative action/equal opportunity employer.
  45484.  
  45485.  
  45486. Approved: parallel@hubcap.clemson.edu
  45487. Follow-up: comp.parallel
  45488. Path: bounce-back
  45489. Newsgroups: comp.parallel
  45490. From: ebert@cs.umbc.edu (Dr. David Ebert)
  45491. Subject: CFP: 1994 Symposium on Volume Visualization
  45492. Date: 10 Dec 1993 13:56:42 -0500
  45493. Organization: U. Maryland Baltimore County Computer Science Dept.
  45494.  
  45495.  
  45496.            1994 Symposium on Volume Visualization
  45497.  
  45498.          October 17-18, 1994 Washington, DC
  45499.                    
  45500.             Call for Participation
  45501.  
  45502. Following our three successful meetings (the Chapel Hill '89, San Diego '90,
  45503. and Boston '92 Workshops on Volume Visualization), this fourth meeting 
  45504. will provide the opportunity for demonstrations of new developments in this
  45505. evolving area. Scientists from all disciplines involved in the visual
  45506. presentation and interpretation of volumetric data are invited 
  45507. to both submit and attend this Symposium.
  45508.  
  45509. The Symposium is sponsored by ACM-SIGGRAPH and the IEEE Computer Society
  45510. Technical Committee on Computer Graphics. This Workshop will take place during
  45511. the week of October 17-21, 1994 at the Sheraton Premiere at Tyson Center Hotel
  45512. in Washington DC area, in conjunction with the Visualization '94 Conference.
  45513.  
  45514. Six copies of original material should be submitted to the program co-chairs
  45515. on or before March 31, 1994. Authors from North America are asked
  45516. to submit their papers to Arie Kaufman. All others are to submit their
  45517. papers to Wolfgang Krueger. Suggested topics include, but are not limited to:
  45518.  
  45519. * Volume visualization of unstructured and irregular grids.
  45520. * Parallel and distributed volume visualization.
  45521. * Hardware and software systems.
  45522. * Validation and control of rendering quality. 
  45523. * Volume segmentation and analysis. 
  45524. * Management, storage, and rendering of large datasets.
  45525. * User interfacing to volume visualization systems.
  45526. * Acceleration techniques for volume rendering.
  45527. * Fusion and visualization of multimodal and multidimensional data.
  45528. * Visualization of non-scalar volumetric information.
  45529. * Modeling and realistic rendering with volumes.
  45530. * Discipline-specific application of volume visualization.
  45531.  
  45532. Papers should be limited to 5,000 words and may be accompanied by an NTSC
  45533. video (6 copies, please).  The accepted papers will appear in the Symposium
  45534. Proceeding that will be published by ACM/SIGGRAPH and will be distributed 
  45535. to all SIGGRAPH Member "Plus".
  45536.  
  45537. Program Co-chairs:
  45538. Arie Kaufman                Wolfgang Krueger
  45539. Computer Science Department        Dept. of Scientific Visualization, GMD-HLRZ
  45540. State University of New York        P.O. Box 1316, Schloss Birlinghoven
  45541. Stony Brook, NY 11794-4400        D-5205 Sankt Augustin 1  GERMANY 
  45542. Telephone: 516-632-8441/8428        Telephone: +49 (2241) 14-2367
  45543. Fax:       516-632-8334            Fax:       +49 (2241) 14-2040 
  45544. Email:     ari@cs.sunysb.edu        Email:     krueger@viswiz.gmd.de
  45545.  
  45546. Symposium Co-chairs:
  45547. Roni Yagel                Holly Rushmeier
  45548. Dept. of Computer Science        Rm. B-146, Bldg. 225
  45549. The Ohio State University        NIST
  45550. 2036 Neil Av. Columbus, OH 43210    Gaithersburg, MD 20899
  45551. Telephone: 614-292-0060                Telephone: 301-975-3918
  45552. Fax:       614-292-2911            Fax:       301-963-9137
  45553. Email:     yagel@cis.ohio-state.edu Email:     holly@cam.nist.gov
  45554.  
  45555. Program Committee:
  45556. Nick England     - University of North Carolina, Chapel Hill
  45557. Pat Hanrahan     - Princeton University
  45558. Marc Levoy     - Stanford University
  45559. Bill Lorensen     - General Electric Co.
  45560. Nelson Max     - Lawrence Livermore National Labs
  45561. Greg Nielson     - Arizona State University
  45562. Sam Uselton     - CS Corp - NASA Ames
  45563. Jane Wilhelms     - University of California at Santa Cruz
  45564.  
  45565. Symposium Committee:
  45566. David Ebert     - University of Maryland, Baltimore County
  45567. Todd Elvins     - San Diego Supercomputer Center
  45568. Larry Gelberg     - AVS
  45569.  
  45570. -- 
  45571. -- Dr. David S. Ebert, Computer Science Department, University of Maryland, --
  45572. --- Baltimore County; 5401 Wilkens Ave., Baltimore, MD USA 21228-5398  -------
  45573. ------ ebert@cs.umbc.edu or ..!{att,pyramid,killer}!cs.umbc.edu!ebert --------
  45574. -------------------------------------------------------------------------------
  45575.  
  45576. Approved: parallel@hubcap.clemson.edu
  45577. Follow-up: comp.parallel
  45578. Path: bounce-back
  45579. Newsgroups: comp.parallel
  45580. From: gkj@jacobs.esd.ornl.gov (Gary K. Jacobs)
  45581. Subject: JOB - Computational Scientist
  45582. Message-ID: <1993Dec10.201138.12025@ornl.gov>
  45583. Organization: Oak Ridge National Laboratory
  45584.  
  45585. Computational Scientist
  45586. (High-Performance Computing in Environmental Technologies)
  45587.  
  45588. The Center for Computational Sciences (CCS) at the Oak Ridge National  
  45589. Laboratory (ORNL), a recognized leader in multidisciplinary research and  
  45590. development, is seeking a Computational Scientist for the development and  
  45591. implementation of computational methods on massively parallel computer  
  45592. architectures to help solve environmental problems of critical importance to  
  45593. industry. The position is part of a multidisciplinary team of national  
  45594. laboratory and university collaborators working on "Grand Challenges" related  
  45595. to environmental areas such as groundwater remediation and global change.
  45596.  
  45597. The successful applicant will be able to work with scientists, programmers, and  
  45598. vendors to create effective implementations of existing codes on  
  45599. state-of-the-art parallel supercomputers employing new hardware and software.  
  45600. Where existing codes are inadequate, the researcher will be encouraged to  
  45601. develop innovative algorithms and software tools to simulate environmental  
  45602. systems. The CCS currently houses a Kendall Square Research computer and two  
  45603. Intel Paragons. 
  45604.  
  45605. The position requires a PhD (or MS and equivalent combination of education and  
  45606. experience) in a quantitative science (hydrology, geochemistry, computer  
  45607. science, mathematics, or engineering). Application programming experience on  
  45608. massively parallel processors and FORTRAN programming proficiency are required.  
  45609. Familiarity with C and UNIX or OSF/1 based computers is desired, along with  
  45610. experience in development and use of visualization software and spatial  
  45611. analysis. Demonstrated interpersonal skills, oral and written communication  
  45612. skills and strong personal motivation are essential.
  45613.  
  45614. ORNL is a multi-purpose research facility managed by Martin Marietta Energy  
  45615. Systems for the U.S. Department of Energy. ORNL offers a competitive  
  45616. compensation and benefits package, including relocation. For immediate  
  45617. consideration, send your resume to:
  45618.  
  45619. J. K. Johnson
  45620. Oak Ridge National Laboratory
  45621. Dept. NetNews
  45622. P.O. Box 2008
  45623. Oak Ridge, Tennessee 37831-6216
  45624.  
  45625. ORNL is an equal opportunity employer committed to building and maintaining a  
  45626. diverse workforce.
  45627.  
  45628. Approved: parallel@hubcap.clemson.edu
  45629. Follow-up: comp.parallel
  45630. Path: bounce-back
  45631. Newsgroups: comp.parallel,comp.arch
  45632. From: bart@asiago.cs.wisc.edu (Bart Miller)
  45633. Subject: New tech reports on parallel measurement tools
  45634. Message-ID: <1993Dec10.204910.13584@cs.wisc.edu>
  45635. Organization: University of Wisconsin, Madison -- Computer Sciences Dept.
  45636.  
  45637. Two new technical reports are available via anonymous from the Paradyn
  45638. Parallel Program Performance Tool project at UW-Madison.
  45639.  
  45640. The first paper is about our techniques and implementation for dynamic (on
  45641. the fly) instrumentation of programs.  The second paper is about collecting
  45642. and mapping performance data to high-level parallel languages, with a
  45643. description of a prototype implementation of these ideas for CM Fortran.
  45644. An earlier paper on the Performance Consultant part of Paradyn is also
  45645. available.
  45646.  
  45647. These files are found on grilled.cs.wisc.edu (128.105.36.37):
  45648.  
  45649.     technical_papers/dyninst.ps.Z    Dynamic instr paper
  45650.     technical_papers/nv.ps.Z        High-level langugae tool paper
  45651.     technical_papers/w3search.ps.Z    Performace Consultant paper
  45652.  
  45653. Also in this directory is a file called "READ_ME", listing titles, authors,
  45654. and citations for each paper.  File "ABSTRACTS" contains this information,
  45655. plus abstracts for each paper.
  45656.  
  45657. Questions on the Paradyn system can be directed to paradyn@cs.wisc.edu.
  45658.  
  45659. Approved: parallel@hubcap.clemson.edu
  45660. Follow-up: comp.parallel
  45661. Path: bounce-back
  45662. Newsgroups: comp.parallel
  45663. From: Gordon D B Cameron <gordonc@epcc.edinburgh.ac.uk>
  45664. Subject: Re: I/O on parallel machines
  45665. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  45666. Organization: Edinburgh Parallel Computing Centre
  45667. References: <1993Dec3.132928.28740@hubcap.clemson.edu>
  45668.  
  45669. Hi,
  45670.  
  45671. (Sorry for the inaccuracy in ftp directory on the references for parallel I/O
  45672. here at EPCC.
  45673.  
  45674. The address is /pub/pul at ftp.epcc.ed.ac.uk, and the parallel file i/o
  45675. utility is known as PUL-GF. The files start with the gf- prefix, and are 
  45676. compresssed PostScript.
  45677.  
  45678. I hope this is of use,
  45679.     -G.)
  45680.  
  45681. -- 
  45682. ~ Gordon Cameron ( BSG & Visualisation )      Phone: +44 31 650 5024 (Rm. 2259)
  45683. ~ Edinburgh Parallel Computing Centre   e|p   Email: gordonc@epcc.ed.ac.uk 
  45684. ~ The University of Edinburgh           c|c  'So far so good, so now so what'
  45685.  
  45686. Approved: parallel@hubcap.clemson.edu
  45687. Follow-up: comp.parallel
  45688. Path: bounce-back
  45689. Newsgroups: comp.parallel
  45690. Newsgroups: comp.sys.super,comp.parallel
  45691. Path: epcc.ed.ac.uk!gordonc
  45692. From: Gordon D B Cameron <gordonc@epcc.edinburgh.ac.uk>
  45693. Subject: Re: I/O on parallel machines
  45694. Keywords: parallel I/O, dartmouth archive, example codes
  45695. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  45696. Organization: Edinburgh Parallel Computing Centre
  45697. References: <CHM6uw.CHn@dartvax.dartmouth.edu>
  45698. Date: Fri, 10 Dec 1993 20:09:17 GMT
  45699. Apparently-To: comp-parallel@uknet.ac.uk
  45700.  
  45701. Hi,
  45702.  
  45703. Here at EPCC, people have been investigating utilities for parallel IO for
  45704. some time. You may want to look at the /ftp/pul directory at :
  45705.     ftp.epcc.ed.ac.uk
  45706.  
  45707.  
  45708. -- 
  45709. ~ Gordon Cameron ( BSG & Visualisation )      Phone: +44 31 650 5024 (Rm. 2259)
  45710. ~ Edinburgh Parallel Computing Centre   e|p   Email: gordonc@epcc.ed.ac.uk 
  45711. ~ The University of Edinburgh           c|c  'So far so good, so now so what'
  45712.  
  45713. Approved: parallel@hubcap.clemson.edu
  45714. Follow-up: comp.parallel
  45715. Path: bounce-back
  45716. From: "Brian D. Alleyne" <alleyne@diana.ICS.UCI.EDU>
  45717. Subject: Performance figures for the Intel Paragon...
  45718. Newsgroups: comp.parallel,comp.sys.super
  45719.  
  45720. Measurement times on the Intel Paragon...
  45721.  
  45722. Would anyone have the following data?
  45723.  
  45724. >From the time that you decide to seed a message, how long does it take
  45725. (software overhead) to send a message to the network.
  45726. (ie. this does not include the latency of the network, just the time to
  45727. launch a message).
  45728.  
  45729. What is the transfer time for a random communication.
  45730. (ie, every processing node picks another at random, and sends a
  45731. message there at the same time. Want the time for all messages to
  45732. get to their destinations for a small message ~ 64 bytes or less).
  45733.  
  45734. What is the transfer rate for a random communication.
  45735. (ie, every processing node picks another at random, and
  45736. sends a message there. Message should be of the order of 64kbytes).
  45737.  
  45738. If you do, please also tell me on
  45739. what size machine it was run on.
  45740.  
  45741. Thanks a million in advance.
  45742.  
  45743. Brian
  45744.  
  45745. -------------------------------------------------------------
  45746.            alleyne@ics.uci.edu
  45747.  
  45748.       If anything can go wRong, it just did.
  45749. -------------------------------------------------------------
  45750.  
  45751. Approved: parallel@hubcap.clemson.edu
  45752. Follow-up: comp.parallel
  45753. Path: bounce-back
  45754. Newsgroups: comp.parallel
  45755. From: jet@nas.nasa.gov (J. Eric Townsend)
  45756. Subject: Re: Information on Paragon
  45757. In-Reply-To: hcl@fai.com's message of Thu, 9 Dec 1993 17:08:19 GMT
  45758. Sender: news@nas.nasa.gov (News Administrator)
  45759. Nntp-Posting-Host: boxer.nas.nasa.gov
  45760. Organization: NAS/NASA-Ames Research Center
  45761. References: <1993Dec6.143410.4616@hubcap.clemson.edu>
  45762.     <1993Dec10.135148.11153@hubcap.clemson.edu>
  45763. Date: Fri, 10 Dec 1993 22:06:39 GMT
  45764. Apparently-To: comp-parallel@ames.arc.nasa.gov
  45765.  
  45766. "hcl" == Han Lung <hcl@fai.com> writes:
  45767.  
  45768. hcl> The figures imply that each node runs at 55.5 MFLOPS (102
  45769. hcl> GFLOPS/1840).  This exceeds the per-node peak performance of the
  45770. hcl> 1872-node Paragon listed in Table 3 of the Linpack report dated
  45771. hcl> Nov. 23, 1993 (94 GFLOPS/1872 = 50 MFLOPS/node).  Unless the
  45772.  
  45773. It is possible to get higher speeds out of a processor than the
  45774. linpack numbers.  Unlikely, difficult, and worth noting when it
  45775. happens, but it can be done.  Dave Scott supposedly got 38.some-odd
  45776. MFLOPS out of i860XR's (peak 40MFLOP) on the ipsc/860 by handcoding
  45777. damn near everything in site.  (Maybe someone from SSD could comment
  45778. on this?)
  45779.  
  45780. hcl> Does anyone know, or can anyone find out, the exact processor
  45781. hcl> count and the clock rate for the Paragon installed at Sandia?
  45782.  
  45783. I believe that the 1872 node figure is substantially correct.
  45784.  
  45785. hcl> As an aside, I don't see how one can get more than 50 MFLOPS from
  45786. hcl> a processor, even for a complex multiply/add (2 +'s for add, 4
  45787.  
  45788. They don't have to.  It's possible that 1872 node figure is actualy
  45789. node boards, not CPU's.  ie: they could actually have 3244 i860's
  45790. (1872*2) operational, which would mean that they get 50MFLOPS/node,
  45791. 25MFLOPS/cpu.
  45792.  
  45793. --
  45794. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  45795. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  45796. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  45797. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  45798.  
  45799. Approved: parallel@hubcap.clemson.edu
  45800. Follow-up: comp.parallel
  45801. Path: bounce-back
  45802. Newsgroups: comp.parallel
  45803. From: mbryant@mbvlab.wpafb.af.mil (Michael L. Bryant)
  45804. Subject: Parallel Processing Benchmarks
  45805. Followup-To: comp.parallel
  45806. Date: 10 Dec 1993 22:39:34 GMT
  45807. Organization: USAF
  45808. Nntp-Posting-Host: mbryant.mbvlab.wpafb.af.mil
  45809.  
  45810. Do any "accepted" benchmarks exist for parallel processing systems which
  45811. measure things like FLOPS/MIPS at the node level, FLOPS/MIPS at the system
  45812. level, node communication, I/O, etc.?  Does a document exist somewhere on
  45813. the net which lists the performance of several machines using these
  45814. benchmarks?  I realize that benchmark performance will only be a rough
  45815. indicator of a specific applications performance.
  45816.  
  45817. Approved: parallel@hubcap.clemson.edu
  45818. Follow-up: comp.parallel
  45819. Path: bounce-back
  45820. Newsgroups: comp.arch,comp.sys.super,comp.parallel
  45821. From: jet@nas.nasa.gov (J. Eric Townsend)
  45822. Subject: MPP and paging (was Re: Why doesn't anybody talk about the NEC super's?
  45823. In-Reply-To: utsumi@ayame.mfd.cs.fujitsu.co.jp's message of 10 Dec 93 14:01:59
  45824. Sender: news@nas.nasa.gov (News Administrator)
  45825. Nntp-Posting-Host: boxer.nas.nasa.gov
  45826. Organization: NAS/NASA-Ames Research Center
  45827. Date: Fri, 10 Dec 1993 23:16:10 GMT
  45828. Apparently-To: comp-parallel@ames.arc.nasa.gov
  45829.  
  45830.  
  45831. "utsumi" == Teruo Utsumi <utsumi@ayame.mfd.cs.fujitsu.co.jp> writes:
  45832.  
  45833. utsumi> To shed a little light on the subject, I'll describe briefly
  45834. utsumi> address translation for the processing element of our VPP500.
  45835. utsumi> I believe the basic ideas are the same for the NEC SX-3 and
  45836. utsumi> Hitachi S-3800.  (BTW, can anyone describe how MPPs deal w/
  45837. utsumi> paging and protection?)
  45838.  
  45839. Paging?  What is paging?
  45840.  
  45841. If we're talking about paging in and out of executables and data
  45842. between RAM and mass storage, then...
  45843.  
  45844. TMC:
  45845. The CM-2 doesn't page.  It's an attached array processor.
  45846.  
  45847. The CM-5 under CMOST 7.[1,2] does not page.  It has virtual addressing
  45848. (ie: all addresses are not between 0 and 32M), but it does page in/out
  45849. or swap.  All programs/data are loaded into core memory fore
  45850. execution.  I'm not sure if any sort of run-time page relocation
  45851. occurs, so it is possible that addresses are mapped from virtual to
  45852. static at load-time.  Multiple processes can run on a node, so I
  45853. suspect that this isn't the case.
  45854.  
  45855. The CM-5 uses sparc chips.  There's no reason it couldn't page, other
  45856. than performance and development costs.
  45857.  
  45858. Intel:
  45859.  
  45860. The ipsc/860 is much like the CM-2 in that it is an attached
  45861. processor more than a standalone parallel system.  Its 'operating
  45862. system' is as much as operating system as MS-DOS is.  (Which is to
  45863. say, that it isn't in the strict definition of the words.  It's a
  45864. program loader.)
  45865.  
  45866. The Paragon, running OSF1/AD does full unix paging on each node.  It
  45867. also runs a full UNIX server on each node (good-bye memory :-).  It's
  45868. a simple thought-problem to imagine what happens if your application
  45869. occupies the network space between the file system and another
  45870. application that needs to page heavily.
  45871.  
  45872. The i860XP can apparently have 1MB page or 1KB page tables.  I don't
  45873. know if anyone has used the 1MB page tables, tho.
  45874.  
  45875. --
  45876. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  45877. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  45878. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  45879. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  45880.  
  45881. Approved: parallel@hubcap.clemson.edu
  45882. Path: bounce-back
  45883. Newsgroups: comp.sys.super,comp.parallel
  45884. From: murphyx@superior.ccs.carleton.ca (Michel Murphy)
  45885. Subject: Re: Business Applications on Supercomputers....
  45886. Followup-To: comp.sys.super,comp.parallel
  45887. Sender: news@cunews.carleton.ca (News Administrator)
  45888. Organization: Carleton University
  45889. X-Newsreader: TIN [version 1.2 PL0]
  45890. References: <1993Dec9.142854.1807@hubcap.clemson.edu>
  45891. Date: Sat, 11 Dec 1993 03:31:58 GMT
  45892. Apparently-To: comp-parallel@math.waterloo.edu
  45893.  
  45894. Craig F. Reese (cfreese@super.org) wrote:
  45895.  
  45896. : It seems that supercomputer manufacturers are looking more and more
  45897. : towards the commercial/business areas as their markets.  
  45898.  
  45899. : I'm curious.  What are the types of computations typically done in
  45900. : these areas?
  45901.  
  45902. If you look at the Cray ftp site (ftp.cray.com) you'll see that
  45903. Merrill Lynch just bought a Cray YMP. They're using it for portfolio
  45904. analysis (risk/return). Given the large amount of statistics and large
  45905. datasets, lots of problems seem suited for a vector machine. I'm sure
  45906. that a vector machine would drastically reduce Monte-Carlo simulations.
  45907.  
  45908. For the past two years, I've been working with the canadian Department of
  45909. Finance (similar to the US Office of the Budget) and came across
  45910. several problems which would have been very nicely handled by a vector
  45911. machine. We had to write loops and most of the models took few hours
  45912. to run. When the Minister wanted something by 4pm, it would have been
  45913. nice to crank the entire model on a cray instead of submitting
  45914. an incomplete analysis of an economic problem.
  45915.  
  45916. : I'm interested in better understanding how a business supercomputer
  45917. : might be architected differently than a scientific one (if there really
  45918. : is any significant difference).  
  45919.  
  45920. The business/financial/economics problem that I have came across seem
  45921. to be indead very similar to scientific ones. (I've worked on both)
  45922.  
  45923. If you'd like to discuss this any further, you can email me at
  45924. murphyx@ccs.carleton.ca.
  45925.  
  45926.  
  45927.  
  45928.  
  45929. Approved: parallel@hubcap.clemson.edu
  45930. Follow-up: comp.parallel
  45931. Path: bounce-back
  45932. Newsgroups: comp.parallel
  45933. From: edmond@tripos.com (Edmond Abrahamian)
  45934. Subject: PhD work off-campus?
  45935. Message-ID: <CHuz6r.4pH@tripos.com>
  45936. Summary: off-campus PhD research anywhere?
  45937. Keywords: PhD off-campus-research
  45938. Organization: Tripos Associates, Inc.
  45939. Date: Sat, 11 Dec 1993 06:54:25 GMT
  45940.  
  45941.  
  45942. Are there universities that allow PhD candidates to work on their research
  45943. away from the campus? In my particular case, I am unable to completely quit
  45944. my job (for monetary reasons) to pursue postgraduate work, yet my job offers 
  45945. a particularly good environment for research in the areas of molecular 
  45946. modelling, molecular mechanics, 3-d compound searching, computer graphics, 
  45947. parallel processing, algorithmics, and artificial intelligence, among possible 
  45948. others. I am interested in working towards a PhD in computer science.
  45949.  
  45950. I am seeking a program that would allow me to do doctoral research work 
  45951. off-campus. Are universities in Europe more receptive to this idea than
  45952. those in the U.S.? In particular, I hear that course work is not mandatory
  45953. there. Can anyone help me at all on this subject?
  45954.  
  45955. I apologize if this posting is not appropriate for this newsgroup.
  45956.  
  45957. thanks,
  45958.  
  45959.   Edmond
  45960.  
  45961. ---------------------------------------------------------------------------
  45962.    Edmond Abrahamian              voice +1 314 647 8837 ext 3281
  45963.    Tripos Associates              fax   +1 314 647 9241
  45964.    1699 S. Hanley Rd. Suite 303   email tripos.com!edmond@wupost.wustl.edu
  45965.    St.Louis MO 63144 USA
  45966. ---------------------------------------------------------------------------
  45967.  
  45968. Approved: parallel@hubcap.clemson.edu
  45969. Follow-up: comp.parallel
  45970. Path: bounce-back
  45971. Newsgroups: comp.parallel
  45972. From: vip@kvant.munic.msk.su (Andrei I. Massalovitch)
  45973. Subject: Was: COCOM... Thanks a lot - hundred responses !
  45974. Date: Sat, 11 Dec 1993 11:31:57 GMT
  45975. X-Mailer: BML [MS/DOS Beauty Mail v.1.25]
  45976. Reply-To: vip@kvant.munic.msk.su
  45977. Organization: NII Kvant
  45978. Keywords: COCOM
  45979. Sender: news-server@kremvax.demos.su
  45980. Summary: Was: COCOM... Thanks a lot - hundred responses !
  45981. Message-ID: <ACj-Q2jm25@kvant.munic.msk.su>
  45982.  
  45983.  
  45984.  
  45985.  
  45986.  
  45987. Dear Colleagues,
  45988.  
  45989. Thanks a lot for the one hundred responses to my letter "COCOM is dead !..."
  45990. I'll try to answer all. Sorry for the delay.
  45991.  
  45992. Thanks again.
  45993.  
  45994. Andrei Massalovitch
  45995. Parallel Systems Division
  45996. S&R Institute KVANT, Moscow, Russia
  45997.  
  45998.  
  45999. -- 
  46000.  
  46001. Andrei Massalovitch
  46002.  
  46003.  
  46004.  
  46005.  
  46006. Approved: parallel@hubcap.clemson.edu
  46007. Follow-up: comp.parallel
  46008. Path: bounce-back
  46009. Newsgroups: comp.parallel
  46010. From: vip@kvant.munic.msk.su (Andrei I. Massalovitch)
  46011. Subject: Is the performance/price of Alpha really good ?
  46012. Date: Sat, 11 Dec 1993 11:27:15 GMT
  46013. X-Mailer: BML [MS/DOS Beauty Mail v.1.25]
  46014. Reply-To: vip@kvant.munic.msk.su
  46015. Organization: NII Kvant
  46016. Keywords: Alpha, price/performance
  46017. Sender: news-server@kremvax.demos.su
  46018. Summary: Is the performance/price of Alpha really good ?
  46019. Message-ID: <ABJwQ2jm25@kvant.munic.msk.su>
  46020.  
  46021.  
  46022.  
  46023.  
  46024.  
  46025. Dear Colleagues,
  46026.  
  46027. the discussion about DEC Alpha benchmarks is very interesting,
  46028. but what about price/performance of Alpha workstations ?
  46029.  
  46030. As I think, Pentium and may be 486 look more tasty ?
  46031.  
  46032. I should be obliged if somebody would forward me any information about
  46033. concrete models of Alpha Workstations and your opinion about this side
  46034. of problem.
  46035.  
  46036. Thanks in advance.
  46037.  
  46038. Andrei Massalovitch
  46039. Parallel Systems Division
  46040. S&R Institute KVANT, Moscow, Russia
  46041.  
  46042.  
  46043. -- 
  46044.  
  46045. Andrei Massalovitch
  46046.  
  46047.  
  46048.  
  46049.  
  46050. Approved: parallel@hubcap.clemson.edu
  46051. Follow-up: comp.parallel
  46052. Path: bounce-back
  46053. Newsgroups: comp.parallel
  46054. From: thibaud@kether.cgd.ucar.edu (Francois P. Thibaud)
  46055. Subject: search for benchmark
  46056. Keywords: benchmark, programming model, parallel
  46057. Sender: news@ncar.ucar.edu (USENET Maintenance)
  46058. Organization: Climate and Global Dynamics Division/NCAR, Boulder, CO
  46059. Date: Sun, 12 Dec 1993 00:24:59 GMT
  46060. Apparently-To: comp-parallel@ncar
  46061.  
  46062. Hello Everybody !
  46063.  
  46064. On behalf of    Bruce Curtis (National  Energy Research  Supercomputer
  46065. Center (NERSC), Livermore, CA), I am searching for a rare pearl:
  46066.  
  46067. an  application   program  written  (coded)    using  the  3 following
  46068. programming models:
  46069.  
  46070. * shared  memory (e.g. Fortran 77  with parallel  Fortran preprocessor
  46071.   directives, like Cray's "fmp"),
  46072. * message passing (e.g. Fortran 77 with PVM-2/3),
  46073. * data parallel (e.g.  Fortran 90, HPF,  TMC's CM Fortran, using array
  46074.   constructs).
  46075.  
  46076. This code would be used for benchmarking  within the NERSC procurement
  46077. procedure for a (big) MPP.
  46078.  
  46079. The program has to be:
  46080. * well written  and documented  (mandatory,  Fortran 6 aligned on  7th
  46081.   column without any comment is not OK),
  46082. * public domain (your classified warp  drive's coil simulation code is
  46083.   probably not OK, even though I would be interested  in looking at it
  46084.   8=),
  46085. * operational NOW with the 3 programming models (mandatory),
  46086. * reasonably short (less then 10k lines).
  46087.  
  46088. Reward:
  46089. my eternal  gratitude, NERSC's benchmarking team's  eternal gratitude,
  46090. all the future  users of NERSC's  MPP's eternal  gratitude (NO formula
  46091. has been found to convert "eternal gratitude" to CPU hours 8=).
  46092.  
  46093. If you happen to know somebody who may have such  a rare pearl, please
  46094. forward this message.
  46095.  
  46096. If  you happen to own  such a rare pearl and  are willing to share it,
  46097. please respond by E-mail to "thibaud@ncar.ucar.edu".
  46098.  
  46099. Kind Regards !
  46100.  
  46101. Francois P. Thibaud
  46102.  
  46103. Organization: University of Maryland at College Park (UMCP) and
  46104.     The National Center for Atmospheric Research (NCAR)
  46105. Address: 1850, Table Mesa Drive; PO Box 3000; Boulder CO 80307-3000 USA
  46106. Phone: (+1)303-497-1707; Fax: (+1)303-497-1700; Room 505, North tower
  46107. Internet: thibaud@ncar.ucar.edu (thibaud@ra.cgd.ucar.edu)
  46108.  
  46109. Approved: parallel@hubcap.clemson.edu
  46110. Path: bounce-back
  46111. From: sirosh@cs.utexas.edu (Joseph Sirosh)
  46112. Newsgroups: comp.sys.super,comp.parallel
  46113. Subject: T3D computation to communication
  46114. Followup-To: comp.sys.super
  46115. Organization: CS Dept, University of Texas at Austin
  46116.  
  46117. One of the ways to estimate how well-balanced an MPP is between computation
  46118. and communication is to estimate the average no. of floating point operations
  46119. that can be done by one processor in the time to send and receive a
  46120. packet (including startup latency for the packet) between two processors.
  46121. This is a good rule of the thumb, assuming no hot spot problems, and not
  46122. too intensive communication requirements.
  46123.  
  46124. Can anyone provide a rough estimate for the CRAY-T3D in this respect? Let
  46125. us assume we use CRAY's version of PVM for communication. It would be good
  46126. to get the figures for processor to processor communication, as well as
  46127. broadcast (since special hardware is present for broadcast).
  46128.  
  46129. Thanks
  46130.  
  46131. --Joseph Sirosh
  46132.  
  46133. PS: Figures for other machines (say KSR 1/2, Paragon, CM-5) should also be
  46134. interesting, for comparison.
  46135.  
  46136. Approved: parallel@hubcap.clemson.edu
  46137. Follow-up: comp.parallel
  46138. Path: bounce-back
  46139. Newsgroups: comp.sys.super,comp.parallel
  46140. From: tez@chopin.udel.edu (Timothy E Zickus)
  46141. Subject: Re: Business Applications on Supercomputers....
  46142. Message-ID: <CHxG8A.C4t@news.udel.edu>
  46143. Sender: usenet@news.udel.edu
  46144. Organization: University of Delaware
  46145. References: <1993Dec9.142854.1807@hubcap.clemson.edu>
  46146.  
  46147. cfreese@super.org (Craig F. Reese) writes:
  46148. >
  46149. >It seems that supercomputer manufacturers are looking more and more
  46150. >towards the commercial/business areas as their markets.  
  46151. >
  46152. >I'm curious.  What are the types of computations typically done in
  46153. >these areas?
  46154.  
  46155. Craig,
  46156.  
  46157. My company, Quantum Development, has recently announced a version of our
  46158. Quantum Leap problem solving workbench for IBM's SP1 hardware.   In
  46159. a nutshell, the application allows users to quickly build complex 
  46160. business models and subsequently perform global optimization and 
  46161. constraint satisfaction on the resulting model to support a decision-making
  46162. process.  
  46163.  
  46164. The types of applications that can make use of this type of product run
  46165. the whole spectrum from financial to manufacturing.
  46166.  
  46167. Our problem solving engine is very CPU-hungry, of course, so any hardware
  46168. that lets us distribute the computations across many processors (either
  46169. within the same box, or across a LAN) is ideal.  For example, we also
  46170. recently announced our SMP OS/2 version as well, which allows us to make
  46171. use of desktop servers for smaller-scale problems than on the SP1 class
  46172. server.
  46173.  
  46174. I won't invite flames by posting it in this forum, but
  46175. I will be glad to send you (& anyone else who is interested) a copy
  46176. of our SP1 press release by e-mail.
  46177.  
  46178. best regards,
  46179.  
  46180. - Tim
  46181. --
  46182. --------------------------------------------------------------------------
  46183. Love is instinctive  |  Happiness is a good cup    | tim zickus
  46184. Hate is learned      |  of espresso...  _____      | mgr. of development
  46185. -----------------------------------     |   |)     | quantum development 
  46186. zickus@udel.edu    (302) 798-0899 |     |___|      | claymont, delaware
  46187. --------------------------------------------------------------------------
  46188.  
  46189. Approved: parallel@hubcap.clemson.edu
  46190. Path: bounce-back
  46191. Newsgroups: comp.parallel
  46192. From: rick@cs.arizona.edu  (Rick Schlichting)
  46193. Subject: Kahaner Report: Summary of Japanese High Performance Computing, 1993
  46194. Followup-To: comp.research.japan
  46195. Date: 12 Dec 1993 20:47:37 -0700
  46196. Organization: University of Arizona CS Department, Tucson AZ
  46197.  
  46198.   [Dr. David Kahaner is a numerical analyst on sabbatical to the 
  46199.    Office of Naval Research-Asia (ONR Asia) in Tokyo from NIST.  The 
  46200.    following is the professional opinion of David Kahaner and in no 
  46201.    way has the blessing of the US Government or any agency of it.  All 
  46202.    information is dated and of limited life time.  This disclaimer should 
  46203.    be noted on ANY attribution.]
  46204.  
  46205.   [Copies of previous reports written by Kahaner can be obtained using
  46206.    anonymous FTP from host cs.arizona.edu, directory japan/kahaner.reports.]
  46207.  
  46208. From: 
  46209.  Dr. David K. Kahaner
  46210.  US Office of Naval Research Asia
  46211.  (From outside US):  23-17, 7-chome, Roppongi, Minato-ku, Tokyo 106 Japan
  46212.  (From within  US):  Unit 45002, APO AP 96337-0007
  46213.   Tel: +81 3 3401-8924, Fax: +81 3 3403-9670
  46214.   Email: kahaner@cs.titech.ac.jp
  46215. Re: Summary of Japanese High Performance Computing, 1993
  46216. 12/08/93 (MM/DD/YY)
  46217. This file is named "j-hpc.93"
  46218.  
  46219. ABSTRACT. A brief summary of developments in Japanese High Performance
  46220. Computing. This report extracts a variety of material from earlier
  46221. reports, and provides a synthesis of these developments as of the end of
  46222. 1993.
  46223.  
  46224. High performance computing means both traditional supercomputing, and
  46225. the newly emerging field of parallel computing. In Japan, both areas are
  46226. under heavy scrutiny and development in both the private and public
  46227. sector.  Here we survey the current trends.
  46228.  
  46229. The three large Japanese supercomputer vendors, NEC, Fujitsu, and
  46230. Hitachi have been actively building high-end shared memory
  46231. supercomputers. The emphasis has been to capitalize on Japanese
  46232. excellence in technology even admitting that they are behind in
  46233. software. At this date, each of these companies have existing shared
  46234. memory systems whose single processor peak performance exceeds anything
  46235. produced in the US. The three Japanese supercomputer vendors provide
  46236. single processor peak performance of 5-8GFLOPs, Cray Research Inc's
  46237. (CRI) newest C-90 has 1GFLOP peak.
  46238.  
  46239. Multiprocessor shared memory systems have peak performance that is
  46240. proportional to the number of processors.  Multiprocessor systems from
  46241. the Japanese vendors have 2-4 processors, while a C-90 can have 16.
  46242. Nevertheless, peak performance on a 16 processor C-90 is 16GFLOPs,
  46243. whereas peak on Hitachi's S3800 with 4 processors is 32GFLOPs. The S3800
  46244. also illustrates the point that excellent technology can leapfrog--two
  46245. years ago Hitachi was hardly even mentioned as a player in the
  46246. supercomputer field, today it has the world's fastest single processor.
  46247.  
  46248. Very high peak performance is obtained partly by using excellent
  46249. technology, and partly by using large numbers of vector pipes. The
  46250. Hitachi S3800 has a 2ns clock and NEC's SX-3R has a 2.5ns clock, both
  46251. using only silicon technology. The C-90 clock is 4ns; CRI will not have
  46252. a 2ns silicon machine for several years. Peak performance is directly
  46253. proportional to clock speed.  Large numbers of vector pipes means that 8
  46254. or even 16 of the same floating point operation can be done
  46255. simultaneously. This requires that arrays of floating point numbers must
  46256. be segmented into 8 or even 16 parts for maximum performance. Thus,
  46257. problems with very long vector lengths are most suitable candidates for
  46258. high performance.
  46259.  
  46260. Peak and real performance may be very different and users are becoming
  46261. sophisticated at not accepting a single number as a performance measure
  46262. and are demanding benchmarks based on their specific applications. Most
  46263. applications obtain a small fraction of peak and might even be dominated
  46264. by scalar arithmetic, I/O, or other operations that are not suitable for
  46265. speedup by vectorization. One reason why Cray has been successful in
  46266. bidding against Japanese computer manufacturers is that they have a
  46267. reputation for balanced performance from all parts of their system.
  46268. Nevertheless, there is usually some application that can take advantage
  46269. of any existing performance, and if there is enough determination these
  46270. applications can benefit from architectures that are not appropriate for
  46271. other problems. Fujitsu, for example, has been targeting both oil
  46272. simulation and weather as particular application areas for their
  46273. hardware, with some success. They also have started to develop
  46274. applications in chemical fields. NEC and Hitachi also have some
  46275. particular application fields for their shared memory systems.
  46276.  
  46277. There is also the issue of whether multiprocessor shared memory systems
  46278. are to be run in multi-user or single-user mode. In the former case, a
  46279. user gets access to a single processor. At the moment, Japanese shared
  46280. memory supercomputers are mostly operating as one user on one processor.
  46281. In a computer center with a multi-processor system, giving users a
  46282. single processor can result in high center throughput, but it does not
  46283. give users access to the complete hardware. Software aspects are very
  46284. different in these cases too. Users of Japanese systems are only
  46285. beginning to experiment with multiprocessors. Not surprisingly, their
  46286. initial experiences are frustrating and there are many anecdotal stories
  46287. about poor performance.  But performance will get better and ultimately
  46288. may be comparable, in percentage of peak, to CRI's figures.
  46289.  
  46290. As part of this year's economic stimulus package the Japanese government
  46291. has agreed to purchase and install 15 supercomputers (some of which may
  46292. be parallel computers) by 1 April 1994 at government research labs. US
  46293. products will be significantly represented, although some may be
  46294. "integrated" by Japanese companies. Naturally, the positioning and
  46295. bidding war for these systems is intense. (At the moment, CRI, Maspar,
  46296. and Thinking Machines have bids that were accepted.) For example, there
  46297. are rumors that Hitachi's S3800 will be the company's last traditional
  46298. shared memory supercomputer. Hitachi will have several years to ponder
  46299. this, and successful bids for some of these 15 systems could
  46300. significantly influence them. Similarly, many Japanese feel that
  46301. Fujitsu's current shared memory VP2000/VPX is not competitive any
  46302. longer, with NEC, Hitachi, and CRI making shared memory systems with 3-6
  46303. times more total peak performance.
  46304.  
  46305. Although Japanese supercomputers have a reputation for hardware
  46306. reliability, application software is still lagging. With a smaller
  46307. installed base it is difficult to convince Western companies to invest
  46308. in converting well known packages. Also, there is a general sense that
  46309. large shared memory systems are low volume sellers (although high
  46310. revenue fraction for the hardware vendors), and perhaps a dying breed.
  46311. Sometimes, software porting is done by the Japanese vendors directly,
  46312. and almost always a Japanese interface is provided. Pre and
  46313. post-processing packages are also common.  Since the existence of these
  46314. packages is an important selling point, the Japanese have invested
  46315. significant financial resources and talent in software development, and
  46316. this also provides a learning experience for their software engineers as
  46317. well as providing a variety of new capabilities.  However, CRI still
  46318. maintains a significant lead because of the number of applications that
  46319. run on their systems.
  46320.  
  46321. For most application areas, there are fully Japanese-written packages,
  46322. especially in structural analysis, electromagnetics, and to a growing
  46323. extent, computational fluid dynamics (CFD). Because of the application
  46324. bent within the Japanese science and technology community, computational
  46325. simulation is heavily used and this has led to new software and
  46326. enhancements to existing software. Industrial use of engineering
  46327. software is high, and applications to wind load on buildings, air flow
  46328. around automobiles, shock waves caused by high speed trains in tunnels,
  46329. quenching of molten steel, heat flow while making flat panel glass,
  46330. etc., are fairly common. 
  46331.  
  46332. As one example of brand-new Japanese software we mention that over the
  46333. past four years the US$10M industry-funded Alpha-flow project which has
  46334. developed a large package for use in computational fluid dynamics CFD
  46335. (single phase flow). This is now being sold by the individual
  46336. participant companies. For example, Hitachi and Fujitsu have announced
  46337. that Alpha-flow will be available on their supercomputers. This does not
  46338. yet appear to be a threat to Western software developers, but might be
  46339. if its capabilities are expanded.
  46340.  
  46341. There are also some unique software products for Japanese
  46342. supercomputers. For example, Fujitsu has a product called Fortran KR,
  46343. which combines the traditional Fortran programming language with
  46344. object-oriented extensions, fuzzy logic and other seemingly exotic
  46345. capabilities. Fujitsu claims that KR is being used (in Japan) in process
  46346. control applications.
  46347.  
  46348. KR, while not a major product, illustrates an important point, that in
  46349. Japan, high performance computing is not entirely focused on traditional
  46350. numerical applications.  While these are still the bread and butter of
  46351. supercomputer runs, a higher fraction of Japanese applications have no,
  46352. or very little, floating point compared to the situation in the West.
  46353. Examples are in circuit layout, reasoning, etc.  There is also
  46354. (relatively) less interest in developing applications than in running
  46355. existing packages.  In the US, supercomputing began in earnest at the
  46356. national labs where vendors supplied bare bones hardware and left it for
  46357. creative scientists to generate software. Although most US vendors admit
  46358. that they need to emphasize applications over technology, there is still
  46359. a strong tendency in the US to focus on the code development level for
  46360. applications. In Japan where supercomputers moved rapidly into industry,
  46361. integration of packages into work flow is emphasized.
  46362.  
  46363. There is a widespread recognition in Japan that in the future,
  46364. distributed memory parallel processing (MPP) will be an important,
  46365. perhaps the dominant, computing mode.  Until very recently, there have
  46366. been no general purpose Japanese parallel computers, and US computer
  46367. vendors have been successful at selling products in Japan. Currently
  46368. there are about 60 US commercial systems running or being installed in
  46369. Japan. Many are small, but there are also larger systems such as CM-5,
  46370. Paragon, KSR, NCR, NCube, etc.  I am told that CRI has already sold a
  46371. few of their new T3D parallel systems; this will probably be successful
  46372. because T3D runs existing CRI application software and because of the
  46373. company's strong reputation.
  46374.  
  46375. By now, there are several Japanese commercial parallel computers, the
  46376. two most notable being Fujitsu's AP 1000 and NEC's Cenju-3. Hitachi has
  46377. announced plans to use HP's PA-RISC architecture to design and build a
  46378. one thousand node MPP, and a more detailed product announcement is
  46379. likely very soon.  The AP has a 2-D mesh machine and Cenju-3 uses a
  46380. multistage network. Fujitsu is well ahead of other Japanese companies in
  46381. providing access to its parallel computers. The company has set up a
  46382. parallel processing research facility near Tokyo, with two 64cpu systems
  46383. and one 1024 system (the maximum AP configuration), and allows
  46384. researchers wordwide to log in and access the equipment for general
  46385. science; at their recent parallel processing workshop it was announced
  46386. that there were over 600 registered uses of this facility including 11
  46387. groups from Europe and 13 from North America.  (There are also several
  46388. APs in Japan outside Fujitsu, for example at Kyoto University.) An AP
  46389. has been at the Australian National University (ANU) for over two years,
  46390. and extensive collaborative work is performed with Fujitsu. The company
  46391. is also working toward an agreement for similar collaborations with
  46392. Imperial College London.
  46393.  
  46394. NEC says that their Cenju-3 is "being evaluated". I am not aware of any
  46395. Cenju-3 systems running outside the company. At the recent
  46396. Supercomputing '93 meeting in the US, NEC displayed visuals and charts
  46397. about Cenju-3.  None have yet been sold in Japan, although there has
  46398. been one 16 processor sale to the Dutch aviation and space research lab
  46399. NLR, with delivery by mid 1994.
  46400.  
  46401. Both the AP and Cenju are third or fourth generation systems. They have
  46402. evolved from specialized parallel processors. AP was originally a
  46403. graphics engine called CAP; Cenju was designed to solve transient
  46404. circuit problems (SPICE) and currently uses VR4400 RISC processors
  46405. (maximum configuration is 256 processors each of which can run at up to
  46406. 75MHz and has 50MFLOP peak performance). AP also has the capability to
  46407. accept a vector processor for each cpu (Fujitsu's 50MHz Micro VP) on an
  46408. internal bus. In addition there are definite plans, early in 1994 to
  46409. upgrade the AP's basic cpu from a 25 MHz SPARC to a 50MHz Viking chip
  46410. set, which will significantly improve the basic cell performance.
  46411. Integer performance on the AP, such as sorting, is already comparable to
  46412. the CM-5's, although floating point is much worse. Several APs, which
  46413. have a reputation of being exceptionally reliable, are likely to be sold
  46414. to users at Japanese companies and university labs (with and without the
  46415. new cpu) who are not concerned with its lack of commercial software.
  46416. With the new processor, if Fujitsu begins to sell the AP in earnest it
  46417. is possible that NEC will respond by placing their own single chip
  46418. 200MFLOP vector processor (called VPP) in Cenju.
  46419.  
  46420. In fact, the history of Japanese parallel processing is quite different
  46421. from that of the US. In the US, work on the ILLIAC IV was begun in the
  46422. 1960s by ARPA. Things began later in Japan, but there has been work on
  46423. special purpose parallel systems since the 1970s (at least). But, until
  46424. very recently, there were no general purpose parallel computers.  The
  46425. strategy seemed to be to build special systems for clearly identified
  46426. needs, and then attempt to expand them to larger classes of users. Both
  46427. AP and Cenju appear to be systems that may reach the market to compete
  46428. with Western distributed memory processors such as CM-5 or Paragon.
  46429. However, I do not sense a strong commitment to these systems as real
  46430. products, perhaps because of the lack of parallel applications or high
  46431. cost of converting existing software. I believe that the companies are
  46432. honestly unsure of whether they should push forward with vector/parallel
  46433. computing, massively parallel computing, or some combination of both.
  46434. For example, Fujitsu's official word on the AP is that "this machine is
  46435. offered in selected markets to research centers." Similarly, NEC markets
  46436. Cenju-3 "as a tool for pioneering researchers with a vision for the
  46437. future". Both companies mention the use of their parallel machines as
  46438. super-servers on a network.
  46439.  
  46440. Fujitsu's 2nd AP Parallel Processing Workshop, which occurred in Nov
  46441. 1993 at the company's Kawasaki facility suggested several things to me.
  46442. (1) I believe that Fujitsu has really taken the lead in Japanese
  46443. parallel computing; by opening up the AP to outside users they have
  46444. gained an enormous amount of experience and visibility. Their workshop
  46445. reported an impressive number of applications as well as the usual
  46446. confidence building exercises. (2) The Fujitsu--ANU collaboration is a
  46447. big win for both sides. ANU has become a player in parallel computing
  46448. research; Fujitsu has obtained not only the general experience of this
  46449. group and a window into Western thinking, but more explicitly several
  46450. very specific pieces of useful software (including an extended utilities
  46451. kernel, a parallel file system, a nice text retrieval package, system,
  46452. language and compler tools, and a variety of math library software).
  46453. Recently, several of Australia's best computer scientists, who have done
  46454. excellent numerical work on the AP, are now turning their attention to
  46455. the VPP500 (see below), so Fujitsu will derive some benefit there too.
  46456. At the workshop, both senior company management and ANU attendees were
  46457. very enthusiastic. (3) There is competition between VPP and AP groups
  46458. inside Fujitsu, as these machines originate from different divisions.
  46459. Based on the workshop I assume that the AP side is feeling very good
  46460. now.
  46461.  
  46462. It is very possible that another kind of parallel system will lead
  46463. Fujitsu and NEC's efforts into parallel computing. Both companies have
  46464. seen that, at the moment, shared memory supercomputers are successful at
  46465. solving real problems and users like that "computational model". One
  46466. excellent way to make parallelism easy is to give each processor as much
  46467. performance as possible, use relatively few processors, and make their
  46468. interconnections direct. If this could be done cost effectively,
  46469. customers would congregate in droves. The shared memory concept that
  46470. Western parallel computers are supporting is an indication that most
  46471. users are much more comfortable with that approach than with distributed
  46472. memory. If the latter is necessary, users would prefer a network that is
  46473. simple to understand and also efficient. In my opinion, if Japanese
  46474. vendors attempt to compete with Western companies by developing parallel
  46475. processors using existing commodity processor technology they had better
  46476. add some very unique characteristics, because of the heavy edge the West
  46477. has in software development.  Thus it makes sense to push technological
  46478. strength as a value added feature.
  46479.  
  46480. Fujitsu's VPP500 is a good example (not to be confused with NEC's VPP
  46481. chip). A system with up to 222 water cooled cpus (9.5ns) using some
  46482. gallium arsenide, each of which is itself a vector processor capable of
  46483. 1.7GFLOPs, based upon the Fujitsu VP2000 processor (also similar to, but
  46484. faster than the older VP400 processor).  When these processors are
  46485. connected by a high speed crossbar switch allowing every processor equal
  46486. access to every other processor, we get a system with peak of almost
  46487. 340GFLOPs.  Even a single cpu can provide significant performance (4cpus
  46488. is the minimum configuration). A 140cpu system, somewhat of a prototype
  46489. of the VPP500, is installed at the National Aerospace Lab near Tokyo and
  46490. now holds the current performance record of about 120GFLOPs on a section
  46491. of NS3D code, and about 70GFLOPs on more realistic applications.
  46492. Several VPP500 systems with a handful of processors each have been sold
  46493. to sites in Europe; in Japan, systems will be installed at Tsukuba
  46494. University's Computing Center and MITI's new Angstrom Lab.  A full
  46495. VPP500 is large (each processor is about 1cubic foot) and expensive (one
  46496. very rough estimate of the 140cpu NAL machine was over US$100M), latency
  46497. (time through the system from one processor to another) and startup
  46498. overhead of the network are not well documented -- few objective
  46499. performance evaluations are available.  Also there is as yet very little
  46500. parallel software. (A Fortran compiler that is compatible with both the
  46501. VPP500 and the AP1000 is just now being released.)
  46502.  
  46503. But the VPP500 exploits the capabilities of the Japanese electronics
  46504. companies to build devices, and it can be potent for specific
  46505. applications. I would not be surprised to see NEC adopt a similar
  46506. approach, for example using SX-3 like processors, connected by a high
  46507. speed crossbar. There is no doubt that they can do this, but at the same
  46508. time it is more likely that they will concentrate on saleable rather
  46509. than record setting systems.  To satisfy the trends toward downsizing
  46510. and cost reduction I also suspect that we will see SX-3 or VP2000
  46511. compatible, air cooled processors, perhaps enhanced by using new CMOS
  46512. technology, higher integration, more advanced packaging, etc.  Smaller
  46513. systems also make sense in other ways, because many of the recent shared
  46514. memory supercomputer sales have been low-end systems. Of course,
  46515. companies would much rather sell a few large systems because the profit
  46516. per unit is greater but the trend everywhere is toward downsizing.
  46517.  
  46518. Another advantage to present-day supercomputer companies of emphasizing
  46519. compatibility is that software that is already running on a vector
  46520. supercomputer should be easier to port, and could even be code
  46521. compatible in some cases.  The variety of parallel computer
  46522. architectures that are available in the US are also being prototyped in
  46523. Japan, but outside of universities, Japanese users have little interest
  46524. in writing software.  For example, the purchase of general purpose
  46525. Fortran libraries (such as IMSL) is very much less common than in the
  46526. West.  Most sites will buy a system, assuming it has reasonable
  46527. price-performance, only if commercial applications are running. Thus the
  46528. big winner will be the vendor with the largest application base.
  46529.  
  46530. Another point to note about Japanese parallel computer activities, is
  46531. the lack of "startup" companies, such as Thinking Machines, NCube, KSR,
  46532. etc. The computer giants, NEC, etc., are naturally concerned about
  46533. taking business away from themselves, and while they have many internal
  46534. development projects, they do not seem rushing to productize them.
  46535. Instead, the role of startup seems to be taken by other companies that
  46536. are attempting to move into the computer market. Several examples
  46537. illustrate the point.
  46538.  
  46539. NKK is the Western name for Nippon Kokan or Nippon Steel Tubing company,
  46540. a US$12B company that is known for steel and other metal products,
  46541. certainly not for computers. But NKK has recently teamed with Convex in
  46542. the US and is sending upwards of a dozen software developers to Texas to
  46543. learn about the latter's new parallel processor and eventually to
  46544. develop commercializable software for it. NKK has significant computer
  46545. expertise because of automation within steel mills, and is hoping to
  46546. capitalize on it to develop new business directions just as steel sales
  46547. flatten. One can see this in other ways too. NKK has just announced as a
  46548. product a computer entirely developed in-house (XT&T), that combines a
  46549. keyboard, a pen-based interface with their own ASIC chip for handwriting
  46550. recognition, and an X-windows terminal interface. NKK's  ambitious
  46551. corporate goal is to have no more than 50% of its business in steel by
  46552. the end of the decade. A related example is the large, government funded
  46553. Real World Computing (RWC) project, a ten-year US$50-60/year (plus
  46554. salaries) effort to develop computing technology to solve ambiguous and
  46555. conflicting problems the way humans do daily on a routine basis.  The
  46556. legal entity for RWC is a Partnership, which has set up a lab with both
  46557. an Intel Paragon and a Thinking Machines CM-5. Among the partners are
  46558. the usual NEC, Hitachi, etc., but also the Japan Iron and Steel
  46559. Foundation, which through its members is searching for new opportunities
  46560. with a new technology.
  46561.  
  46562. Two other examples of new developments outside of the traditional
  46563. computer companies are efforts by Sanyo and Sharp. Sanyo is now selling
  46564. Cyberflow, a compact 64 cpu parallel processor (also a mesh or torus).
  46565. Each processor is a modest 10MFLOP, but is a single chip dataflow
  46566. processor of which 16 fit on one board. The current design allows for up
  46567. to 1024 processors. Sanyo had an earlier version of this too, called
  46568. EDDEN, although it never made it out of the lab. Sharp has a joint
  46569. project with Mitsubishi Electric and has developed what they term a
  46570. Data-Driven Processor, similar to a dataflow design, which has 20MFLOP
  46571. peak performance. As many as 1024 of these can be connected. The company
  46572. is envisaging specialized applications in image processing, digital
  46573. signal processing etc.
  46574.  
  46575. Finally, Matsushita, the giant consumer electronics company (also known
  46576. as National and Panasonic) has a parallel processing project too.
  46577. This is a system with an unusual design that was created originally for
  46578. CFD at Kyoto University. It has undergone several name changes, ADENART,
  46579. ADENA, and finally OHM, but now has 256 100MFLOP processors. This was
  46580. announced as a product in 1992 but there do not appear to have been any
  46581. external sales. The economic downturn has definitely hurt this effort,
  46582. but at the moment it is hanging on.
  46583.  
  46584. A recent study found dozens of parallel processing projects at Japanese
  46585. companies. Most will not reach the street and virtually all begin with
  46586. the goal of satisfying a special application need. (If we include neural
  46587. network hardware and other embedded systems the count would be much
  46588. higher.) But each also provides a learning function to the engineers and
  46589. software developers. When company treasuries were overflowing it was
  46590. easy to justify these projects. Now it is tougher, and certainly
  46591. productizing them will occur very cautiously.  In the meantime Japanese
  46592. users are waiting for applications to arrive.
  46593.  
  46594. Any discussion of high performance computing in Japan must touch on the
  46595. topic of networking. We mention this here briefly. A more complete
  46596. evaluation requires a separate report.
  46597.  
  46598. Networking activities, such as the Internet, were slow to begin in Japan
  46599. and still are not nearly as common as in the US. Nevertheless, many
  46600. technology organizations now have some electronic mail capability. Other
  46601. networking services such as remote access to computer, etc., are not
  46602. widely available. Further, experiments with very high speed networks are
  46603. uncommon or just beginning. The Japanese look at US developments in
  46604. the national information infrastructure with a certain degree of envy,
  46605. hoping that their own government will make similar investments in R&D.
  46606. US networking products are heavily used, CISCO, UltraNet, HIPPI etc.,
  46607. and there are few competitive Japanese equivalents.
  46608.  
  46609. There is one area of networking in which the Japanese are significantly
  46610. ahead of the US, and this will ultimately become very important
  46611. commercially.  The Japanese telephone company, NTT, is the world's
  46612. largest company with operating revenues of over US$60B. NTT has a major
  46613. commitment to installing optical cable to every home in Japan by the
  46614. year 2015 (fiber to the home, FTTH).  Associated with that will be the
  46615. availability of broadband ISDN (B-ISDN) service.  Totally digital, ISDN
  46616. will allow voice, image, sound, etc., to be carried simultaneously.
  46617. Already, narrowband ISDN (N-ISDN), 64K bits per second, is widely
  46618. available. In fact there are thousands of N-ISDN capable coin operated
  46619. public telephones throughout Japan. These have both an analog jack for
  46620. ordinary phone modems as well as a digital jack for the higher speed
  46621. digital N-ISDN connections. 
  46622.  
  46623. NTT was a somewhat optimistic in their belief that the public would
  46624. embrace ISDN immediately. But it is coming, although perhaps somewhat
  46625. more slowly than the company would like. And NTT is extremely serious
  46626. about this effort. In fact, they have changed their corporate slogan to
  46627. VI&P for Visual, Intelligent, and Personal communications, focusing on
  46628. the services that will be available with the new ISDN. Ultimately these
  46629. will be determined by creativity in the marketplace, but NTT has been
  46630. experimenting with a variety of fascinating ideas. These include
  46631. personal telephone numbers attached to people rather than places, 50
  46632. channels of HDTV, super HDTV, interactive music lessons, multi-media
  46633. fax, automatic map generation and fax-back for input telephone numbers,
  46634. 3-D video display without glasses, multimedia video conferencing, etc.
  46635.  
  46636. At the heart of the ISDN system are very high speed switches (ATM
  46637. switches). NTT and many Japanese (as well as Western) companies are
  46638. developing these; Japanese are among the most advanced.  (NTT, Fujitsu,
  46639. and Siemens plan to have a public net ATM switch by next year.) Parallel
  46640. computing plays an important part in this technology, and NTT is
  46641. actively at work on parallel machines.  For example, COSINE-III is a
  46642. 3D-mesh multiprocessor with 64cpus that uses bi-directional free-space
  46643. optical interconnects. As with other Japanese projects this one is also
  46644. focused on a particular application, communication.
  46645.  
  46646. NTT has also established a 2.4Gigabit per second optical link between
  46647. two laboratories about 100km apart. A Cray2 at one site and a Convex at
  46648. the other are linked using FDDI and HIPPI to study the problems
  46649. associated with such high speed links.
  46650.  
  46651. NTT and other companies believe that the distinction between computing
  46652. and communication is fast disappearing, and the fields must be
  46653. integrated. (NEC has also changed its logo to C&C, Computing &
  46654. Communication. It is engaged in a joint venture with Toshiba and a small
  46655. cable TV company to experiment with multimedia broadcasting.) Thus,
  46656. leaders in one technology will automatically be leaders in the other.
  46657. However, Japanese regulations do not currently permit telephone
  46658. companies to engage in broadcasting, although in the US telephone, cable
  46659. TV and entertainment businesses are rapidly joining hands to provide
  46660. multimedia services. So it is not yet clear who will be the leader in
  46661. the new information age.
  46662.  
  46663.  
  46664. ----------------------------END OF REPORT----------------------------
  46665.  
  46666.  
  46667.  
  46668. Approved: parallel@hubcap.clemson.edu
  46669. Follow-up: comp.parallel
  46670. Path: bounce-back
  46671. Newsgroups: comp.parallel
  46672. To: comp-parallel@uunet.UU.NET
  46673. From: pc94@cscs.ch
  46674. Subject: PC94 Second Announcement
  46675. Message-ID: <1993Dec13.105638.6173@cscs.ch>
  46676. Keywords: High Performance Computing
  46677. Sender: pc94@cscs.ch 
  46678. Organization: Centro Svizzero di Calcolo Scientifico, CH-6928 Manno
  46679. Date: Mon, 13 Dec 1993 10:56:38 GMT
  46680.  
  46681. ---------------------------------------------------------------------------
  46682.  
  46683.                                 PC'94
  46684.  
  46685.                         (PHYSICS COMPUTING '94)
  46686.  
  46687.     The 6th Joint EPS-APS International Conference on Physics Computing
  46688.                  Lugano, Switzerland, Palazzo dei Congressi
  46689.                           August 22-26, 1994
  46690.  
  46691.                          (Second Announcement)
  46692.  
  46693. ---------------------------------------------------------------------------
  46694.  
  46695.     Jointly organized by the Swiss Scientific Computing Center
  46696.     (CSCS), Manno, Switzerland, belonging to the Swiss Federal
  46697.     Institute of Technology, Zurich (ETHZ), the EPS Interdisciplinary
  46698.     Group on Computational Physics and by the American Physical
  46699.     Society, Division of Computational Physics.
  46700.  
  46701.     Sponsored by EPS-APS, ETHZ, Computers in Physics, NEC
  46702.  
  46703. Scientific Program
  46704. ---------------------------------------------------------------------------
  46705.     PC'94 will give a detailed overview on the newest research
  46706.     results and developments in computational methodology for
  46707.     academia and industry, including invited papers, contributed
  46708.     papers, poster sessions, tutorials and vendor exhibitions.
  46709.     The purpose of the conference is to bring together researchers
  46710.     interested in innovative approaches in computational physics.
  46711.     Special emphasis will be given to algorithmical and high-
  46712.     performance computer implementation issues. Tutorial
  46713.     sessions organized by leaders in their respective fields will be
  46714.     held on the first conference day.
  46715.  
  46716. Invited Speakers and their presentation topics (August 23-26, 94)
  46717. ---------------------------------------------------------------------------
  46718.     Molecular Dynamics
  46719.        W. Andreoni, IBM Research Centre, Ruschlikon, CH
  46720.        L. Colombo, University of Milan, I
  46721.        V. Stepanyuk, Lomonosov State Univ. Moscow, Russia
  46722.  
  46723.     Physics Education
  46724.        C. Rebbi, Physics Dept., Boston Univ., USA
  46725.  
  46726.     Chaos and Dynamical Systems
  46727.        V. Demmel, MPI fur Extraterrestrische Physik, Garching, D
  46728.  
  46729.     Mesoscopic Physics
  46730.        H. deRaedt, Univ. of Groningen, NL
  46731.        E. Kaxiras, Dept. of Physics,  Harward Univ., USA
  46732.  
  46733.     Electronic Structure of Molecules and Materials
  46734.        L. Ixaru, Inst. of Physics, Univ. of Bucharest,  R
  46735.        You Zhou, Physics Inst., Univ. of Zurich, CH
  46736.  
  46737.     Plasmas
  46738.        U. Schwenn, MPI fur Plasma Physik, Garching, D
  46739.  
  46740.     Fluids and Turbulence
  46741.        T. Poinsot,  CERFACS, Toulouse, F
  46742.        S. Lanteri, Inria, F
  46743.  
  46744.     Climate Modeling
  46745.        J. Hunt, Weather Office, Bracknell, GB
  46746.  
  46747.     Parallel Computation in Physics
  46748.        K. Bowler, Dept. of Physics, Univ. of Edinburgh, GB
  46749.        G. Meurant, CEA, Dept. Mathematiques Appliquees, F
  46750.        M.C.Payne, Dept. of Physics, Univ. of Cambridge, GB
  46751.  
  46752.     Monte Carlo and Critical Phenomena
  46753.        K. Binder, Physics Inst., Johannes Gutenberg-Univ., Mainz, D
  46754.        I. Morgenstern, Physics Inst., Univ. of Regensburg, D
  46755.  
  46756.     Industrial Applications
  46757.        B. Larrouturou  INRIA, Sophia-Antipolis, F
  46758.        P. Sguazzero IBM ECSEC Center, Rome, I
  46759.  
  46760.     Self-Organization and Growth Phenomena
  46761.        M. Peyrard, Faculty of Science, Univ. of Lyon, F
  46762.        J. Kertesz, Bit, Budapest, H
  46763.  
  46764.     Cellular Automata and Lattice Gases
  46765.        B.Chopard, Parallel Computing Group, Univ. of Geneva, CH
  46766.  
  46767.     Numerical Methods
  46768.        I.M.Sobol, Inst. Math. Modelling, Moscow, Russia
  46769.        S. Obara, Dept. of Chemistry, Kyoto Univ., J
  46770.  
  46771. Tutorials (Monday, August 22, 1994)
  46772. ---------------------------------------------------------------------------
  46773.     1    -   Parallel Computation (1 day)
  46774.     2    -   Visualization Tools and Techniques (1 day)
  46775.     3a   -   Introduction to Finite Elements Methods (1/2 day)
  46776.     3b   -   Structured and Unstructured Adaptive Grids (1/2 day)
  46777.     4a   -   Wavelets and Fourier Analysis (1/2 day)
  46778.     4b   -   Electronic Structure Calculations  (1/2 day)
  46779.     5a   -   Introduction to Neural Networks (1/2 day)
  46780.     5b   -   Symbolic Computation (1/2 day)
  46781.  
  46782. Paper Submission (before February 28, 1994)
  46783. ---------------------------------------------------------------------------
  46784.     Original Papers should be limited to 4 pages and submitted
  46785.     before February, 28, 1994. Formatting details will be given in
  46786.     due time. Please submit 4 copies of all materials. Accepted
  46787.     papers will be included as posters or as oral presentations.
  46788.     Papers will only be accepted if at least one of the authors has
  46789.     registered.
  46790.     In contrast with the arrangements at previous conferences in
  46791.     the Physics Computing series, the papers will be printed prior
  46792.     to PC'94 in a proceedings volume, that will be distributed to
  46793.     participants at the beginning of the conference.
  46794.  
  46795. Registration
  46796. ---------------------------------------------------------------------------
  46797.     Registration fee:
  46798.        (1) EPS member and affiliated societies ONLY:
  46799.            I am sending Sfr. 370.- (Sfr. 420.- after May 1994)
  46800.            to the account (*).
  46801.        (2) I am sending Sfr. 400.- (Sfr. 450.- after May 1994)
  46802.            to the account (*).
  46803.        (*) Account:
  46804.            "PC'94" Nr. JE-150.761.0
  46805.            Swiss Bank Corporation (SBS)
  46806.            CH-6982 Agno, Switzerland
  46807.  
  46808.        At the conference there is the possibility to buy daily tickets at
  46809.        Sfr. 200.- /day.
  46810.  
  46811.        The registration fee covers the access to the conference and the
  46812.        proceedings book of the conference. Refund of the registration fee
  46813.        (less 10% administration costs) will only be granted if notification of
  46814.        cancellation has reached the conference secretariat before August 1,
  46815.        1994.
  46816.  
  46817.     Lunches:
  46818.        Sfr. 25.- /day, payable at the conference
  46819.  
  46820.     Tutorials: (Students 50%)
  46821.        Sfr. 200.- /half day
  46822.        Sfr. 300.- /day
  46823.        A tutorial takes place only if at least 10 participants have
  46824.        registered.
  46825.  
  46826. Registration Form
  46827. ------------------------------------------------------ >-8 ----------------
  46828.  
  46829.  Family Name: ____________________________________________________________
  46830.  
  46831.  First Name: _____________________________________________________________
  46832.  
  46833.  Organization: ___________________________________________________________
  46834.  
  46835.  Mailing Address: ________________________________________________________
  46836.  
  46837.  ZIP/City/State  _________________________________________________________
  46838.  
  46839.  Country: ________________________________________________________________
  46840.  
  46841.  Phone: ____________________________ Fax: ________________________________
  46842.  
  46843.  Email: __________________________________________________________________
  46844.  
  46845.  Tutorials:     1 ___ 2 ___  3a ___  3b ___  4a ___  4b ___  5a ___  5b __
  46846.  
  46847.  
  46848.  Date:______________________ Signature:___________________________________
  46849.  
  46850. ---- 8-< -------------------------------------------------------------------
  46851.  
  46852. PC '94 Scientific Advisory Committee
  46853. ---------------------------------------------------------------------------
  46854.     Dr.   Ralf Gruber (chairman)  CSCS, Manno, CH
  46855.     Dr.   Robert Allan            SERC, Daresbury, GB
  46856.     Dr.   David Anderson          Univ. of California, Livermore, USA
  46857.     Prof. Alfonso Baldereschi     EPFL, Lausanne, CH
  46858.     Dr.   Ernesto Bonomi          CSR4, Cagliari, I
  46859.     Prof. Roberto Car             Univ. of Geneva, CH
  46860.     Prof. Robert De Groot         Univ. of Nijemegen, NL
  46861.     Prof. Lev Degtyarev           Keldysh Institute, Moscow, Russia
  46862.     Prof. Geerd Diercksen         Max-Planck-Institut, Gerching bei Munchen, D
  46863.     Prof. Wolfgang Fichtner       ETH Zentrum, Zurich, CH
  46864.     Prof. Roland Glowinski        CERFACS, Toulouse, F
  46865.     Dr.   Frederick James         CERN, Geneva, CH
  46866.     Dr.   Richard Kenway          Edinburgh Univ., GB
  46867.     Prof. Peter Meier             Univ. of Zurich, CH
  46868.     Dr.   Jaroslav Nadrchal       Academy of Sciences, Praha, CZ
  46869.     Prof. Risto Nieminen          Helsinki University, Espoo, Finland
  46870.     Dr.   Elaine Oran             Naval Research Lab., Washington DC, USA
  46871.     Dr.   Jacques Periaux         Dassault Aviation, Saint-Cloud, F
  46872.     Dr.   Adnan Podoleanu         Polytechnical Institute of Bucharest, Russia
  46873.     Dr.   Sauro Succi             IBM ECSEC, Roma, I
  46874.     Dr.   Toshikazu Takada        NEC Corp. Tsukuba, Ibaraki, J
  46875.     Dr.   Marco Tomassini         CSCS, Manno, CH
  46876.     Prof. Tanias Vicsek           Eotvos University, Budapest, H
  46877.  
  46878. Hotel Information
  46879. ---------------------------------------------------------------------------
  46880.     Hotel reservations may be arranged through the Palazzo dei Congressi
  46881.     in Lugano (Tel:  +41/91/21 4774, Fax: +41/91/22 0323).
  46882.     Early registration is advisable in order to arrange proper accommodation.
  46883.  
  46884. Social Programme
  46885. ---------------------------------------------------------------------------
  46886.     A social programme is in preparation. An accompanying person's
  46887.     programme will be organized at the conference.
  46888.  
  46889. Additional Informations
  46890. ---------------------------------------------------------------------------
  46891.     The final program of the conference will be sent in June 1994.
  46892.     Inquiries about the Conference.
  46893.         PC'94
  46894.         Centro Svizzero di Calcolo Scientifico
  46895.         CH-6928 Manno (Switzerland)
  46896.         Tel:    +41/91/508211
  46897.         Fax:    +41/91/506711
  46898.         E-mail: pc94@cscs.ch
  46899.  
  46900. Official Carrier
  46901. ---------------------------------------------------------------------------
  46902.     Swissair
  46903.     Crossair
  46904.  
  46905.  
  46906. Approved: parallel@hubcap.clemson.edu
  46907. Path: bounce-back
  46908. From: lih@cs.columbia.edu (Andrew "Fuz" Lih)
  46909. Newsgroups: comp.parallel,comp.parallel.pvm
  46910. Subject: PVM and Threads?
  46911. Followup-To: comp.parallel.pvm
  46912. Organization: Columbia University Department of Computer Science
  46913. Sender: lih@cs.columbia.edu
  46914. Summary: Can we use PVM and Threads?
  46915. Keywords: pvm parallel threads g++
  46916.  
  46917. Dear Netters,
  46918.  
  46919. We are attempting to use PVM on a Sun in conjunction with the
  46920. public-domain implementation of Pthreads by Frank Mueller of Florida
  46921. State University.  We have gotten them to interoperate in small test
  46922. cases, however once we use large message buffers, we get hangs, and
  46923. dropped return messages from the processes spawned by the pvmds.
  46924.  
  46925. Can anyone give pointers, or suggestions as to whether PVM is thread
  46926. safe.  Rough multiple choice answers:
  46927.  
  46928.     a.  ABSOLUTELY, it should be thread safe
  46929.     b.  POSSIBLY, but there are some areas which are dangerous
  46930.     c.  NO-WAY, it won't work without major modifications
  46931.  
  46932. We are doing mutex locking around pvm_send and pvm_nrecv calls,
  46933. however we are not sure what happens underneath the buffer management
  46934. code, when other threads are performing I/O calls at the same time.
  46935.  
  46936. In our test case, we are spawning about 5 jobs, which send and return
  46937. 250 Kbyte buffers each.  Is this going to be a problem?
  46938.  
  46939. Thanks for any info you can give, we appreciate as quick an initial
  46940. response as possible, as we were hoping to get something up and
  46941. running by Wednesday.
  46942.  
  46943. Regards,
  46944. -Andrew
  46945.  
  46946. `'''   Andrew "Fuz" Lih                  Columbia University Computer Science
  46947. c @@   lih@cs.columbia.edu          Central Research Facilities 
  46948.    \   
  46949.   -  
  46950. Approved: parallel@hubcap.clemson.edu
  46951. Follow-up: comp.parallel
  46952. Path: bounce-back
  46953. Newsgroups: comp.parallel
  46954. From: Tim J Harris <tjh@dcs.ed.ac.uk>
  46955. Subject: San Diego Supercomputer Center?
  46956. Organization: Department of Computer Science, University of Edinburgh
  46957.  
  46958. Hello there,
  46959.  
  46960.  
  46961. I'm trying to find out information on the San Diego Supercomputer Center. 
  46962. Could anyone who works there or near by please write me?  I'm wondering
  46963. what kind of post-doc positions there are for someone with extensive
  46964. experience with parallel and super computers, but any info about the 
  46965. center would be a help.
  46966.  
  46967. Regards,
  46968.  
  46969. Tim Harris
  46970. =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-
  46971. Department of Computer Science
  46972. JCMB, The King's Buildings        email: harris@castle.ed.ac.uk
  46973. University of Edinburgh, Scotland       tel  : (031) 650-5118
  46974. EH9 3JZ                                 fax  : (031) 650-7209
  46975.  
  46976.  
  46977.  
  46978. Approved: parallel@hubcap.clemson.edu
  46979. Follow-up: comp.parallel
  46980. Path: bounce-back
  46981. From: kms@doc.ic.ac.uk (Keith M Sephton,225H,5085,)
  46982. Newsgroups: uk.jobs.offered,comp.parallel
  46983. Subject: Job Advert: Research Assistant in Parallel Computing for Decision 
  46984.          Making
  46985. Date: 13 Dec 1993 17:25:26 -0000
  46986. Organization: Department of Computing, Imperial College, University of London, 
  46987.               UK.
  46988.  
  46989. I am posting this on behalf of John Darlington,   if you have any queries 
  46990. about this job please contact the email address at the end of the advert...
  46991.  
  46992.  
  46993. Department of Computing
  46994. Imperial College of Science, Technology & Medicine
  46995. Research Assistant in Parallel Computing for Decision Making
  46996.  
  46997. Applications are invited for a research assistantship in a SERC funded 
  46998. research project on the development of decision algorithms on parallel 
  46999. machines under the direction of Professor John Darlington and Dr Berc 
  47000. Rustem.  The application areas are economic decisions and chemical engineering 
  47001. process control. The basic methodology to be developed and implemented 
  47002. is numerical model simulation and optimisation. Applicants should have 
  47003. knowledge of numerical methods. Knowledge of one of the following areas 
  47004. will be an advantage but is not essential: optimal control, optimisation 
  47005. theory, parallel numerical computing. 
  47006.  
  47007. Funding for the post is available at the post-doctoral level (16347 + LA 2134) 
  47008. but promising graduates at a more junior level might also be considered. 
  47009. The post starts 1 March 1994 and is for three years. 
  47010.  
  47011. Applicants should send their CV with the names of two referees by  
  47012. 10 January 1994 to 
  47013.  
  47014. Mrs Sue Brookes, 
  47015. Department of Computing, 
  47016. Imperial College, 
  47017. 180 Queen's Gate, 
  47018. London SW7 2BZ.
  47019.  
  47020. (e-mail smb2@doc.ic.ac.uk)
  47021.  
  47022.  
  47023.  
  47024. -- 
  47025. K. M. Sephton, Systems Programmer,    | Email: kms@doc.ic.ac.uk
  47026. Department of Computing,            |
  47027. Imperial College,                   | Tel:   +44 71-589 5111 extn 5085
  47028. 180 Queen's Gate, London SW7 2BZ    | Fax:   +44 71-581 8024          
  47029.  
  47030. Newsgroups: alt.image.medical,comp.graphics,comp.graphics.algorithms,comp.graphics.animation,comp.graphics.avs,comp.graphics.opengl,comp.graphics.explorer,comp.graphics.data-explorer,comp.graphics.visualization,comp.human-factors,comp.sys.super,comp.sys.sgi.graphics,comp.sys.hp,comp.sys.dec,comp.soft-sys.khoros,comp.soft-sys.wavefront,comp.parallel,comp.parallel.pvm,news.announce.conference
  47031. Subject: CFP: 1994 Symposium on Volume Visualization
  47032. To: comp-parallel@uunet.UU.NET
  47033. Path: nobody
  47034. From: ebert@cs.umbc.edu (Dr. David Ebert)
  47035. Date: 10 Dec 1993 13:56:42 -0500
  47036. Organization: U. Maryland Baltimore County Computer Science Dept.
  47037.  
  47038.  
  47039.            1994 Symposium on Volume Visualization
  47040.  
  47041.          October 17-18, 1994 Washington, DC
  47042.                    
  47043.             Call for Participation
  47044.  
  47045. Following our three successful meetings (the Chapel Hill '89, San Diego '90,
  47046. and Boston '92 Workshops on Volume Visualization), this fourth meeting 
  47047. will provide the opportunity for demonstrations of new developments in this
  47048. evolving area. Scientists from all disciplines involved in the visual
  47049. presentation and interpretation of volumetric data are invited 
  47050. to both submit and attend this Symposium.
  47051.  
  47052. The Symposium is sponsored by ACM-SIGGRAPH and the IEEE Computer Society
  47053. Technical Committee on Computer Graphics. This Workshop will take place during
  47054. the week of October 17-21, 1994 at the Sheraton Premiere at Tyson Center Hotel
  47055. in Washington DC area, in conjunction with the Visualization '94 Conference.
  47056.  
  47057. Six copies of original material should be submitted to the program co-chairs
  47058. on or before March 31, 1994. Authors from North America are asked
  47059. to submit their papers to Arie Kaufman. All others are to submit their
  47060. papers to Wolfgang Krueger. Suggested topics include, but are not limited to:
  47061.  
  47062. * Volume visualization of unstructured and irregular grids.
  47063. * Parallel and distributed volume visualization.
  47064. * Hardware and software systems.
  47065. * Validation and control of rendering quality. 
  47066. * Volume segmentation and analysis. 
  47067. * Management, storage, and rendering of large datasets.
  47068. * User interfacing to volume visualization systems.
  47069. * Acceleration techniques for volume rendering.
  47070. * Fusion and visualization of multimodal and multidimensional data.
  47071. * Visualization of non-scalar volumetric information.
  47072. * Modeling and realistic rendering with volumes.
  47073. * Discipline-specific application of volume visualization.
  47074.  
  47075. Papers should be limited to 5,000 words and may be accompanied by an NTSC
  47076. video (6 copies, please).  The accepted papers will appear in the Symposium
  47077. Proceeding that will be published by ACM/SIGGRAPH and will be distributed 
  47078. to all SIGGRAPH Member "Plus".
  47079.  
  47080. Program Co-chairs:
  47081. Arie Kaufman                Wolfgang Krueger
  47082. Computer Science Department        Dept. of Scientific Visualization, GMD-HLRZ
  47083. State University of New York        P.O. Box 1316, Schloss Birlinghoven
  47084. Stony Brook, NY 11794-4400        D-5205 Sankt Augustin 1  GERMANY 
  47085. Telephone: 516-632-8441/8428        Telephone: +49 (2241) 14-2367
  47086. Fax:       516-632-8334            Fax:       +49 (2241) 14-2040 
  47087. Email:     ari@cs.sunysb.edu        Email:     krueger@viswiz.gmd.de
  47088.  
  47089. Symposium Co-chairs:
  47090. Roni Yagel                Holly Rushmeier
  47091. Dept. of Computer Science        Rm. B-146, Bldg. 225
  47092. The Ohio State University        NIST
  47093. 2036 Neil Av. Columbus, OH 43210    Gaithersburg, MD 20899
  47094. Telephone: 614-292-0060                Telephone: 301-975-3918
  47095. Fax:       614-292-2911            Fax:       301-963-9137
  47096. Email:     yagel@cis.ohio-state.edu Email:     holly@cam.nist.gov
  47097.  
  47098. Program Committee:
  47099. Nick England     - University of North Carolina, Chapel Hill
  47100. Pat Hanrahan     - Princeton University
  47101. Marc Levoy     - Stanford University
  47102. Bill Lorensen     - General Electric Co.
  47103. Nelson Max     - Lawrence Livermore National Labs
  47104. Greg Nielson     - Arizona State University
  47105. Sam Uselton     - CS Corp - NASA Ames
  47106. Jane Wilhelms     - University of California at Santa Cruz
  47107.  
  47108. Symposium Committee:
  47109. David Ebert     - University of Maryland, Baltimore County
  47110. Todd Elvins     - San Diego Supercomputer Center
  47111. Larry Gelberg     - AVS
  47112.  
  47113. -- 
  47114. -- Dr. David S. Ebert, Computer Science Department, University of Maryland, --
  47115. --- Baltimore County; 5401 Wilkens Ave., Baltimore, MD USA 21228-5398  -------
  47116. ------ ebert@cs.umbc.edu or ..!{att,pyramid,killer}!cs.umbc.edu!ebert --------
  47117. -------------------------------------------------------------------------------
  47118.  
  47119. Newsgroups: comp.edu,comp.ai,comp.graphics,sci.chem,comp.parallel
  47120. Path: edmond
  47121. From: edmond@tripos.com (Edmond Abrahamian)
  47122. Subject: PhD work off-campus?
  47123. Message-ID: <CHuz6r.4pH@tripos.com>
  47124. Summary: off-campus PhD research anywhere?
  47125. Keywords: PhD off-campus-research
  47126. Organization: Tripos Associates, Inc.
  47127. Date: Sat, 11 Dec 1993 06:54:25 GMT
  47128. Date: Sat, 11 Dec 93 00:54:35 CST
  47129. From: tripos!edmond@uunet.UU.NET (Edmond Abrahamian)
  47130. To: uunet!comp-parallel@uunet.UU.NET
  47131.  
  47132. Are there universities that allow PhD candidates to work on their research
  47133. away from the campus? In my particular case, I am unable to completely quit
  47134. my job (for monetary reasons) to pursue postgraduate work, yet my job offers 
  47135. a particularly good environment for research in the areas of molecular 
  47136. modelling, molecular mechanics, 3-d compound searching, computer graphics, 
  47137. parallel processing, algorithmics, and artificial intelligence, among possible 
  47138. others. I am interested in working towards a PhD in computer science.
  47139.  
  47140. I am seeking a program that would allow me to do doctoral research work 
  47141. off-campus. Are universities in Europe more receptive to this idea than
  47142. those in the U.S.? In particular, I hear that course work is not mandatory
  47143. there. Can anyone help me at all on this subject?
  47144.  
  47145. I apologize if this posting is not appropriate for this newsgroup.
  47146.  
  47147. thanks,
  47148.  
  47149.   Edmond
  47150.  
  47151. ---------------------------------------------------------------------------
  47152.    Edmond Abrahamian              voice +1 314 647 8837 ext 3281
  47153.    Tripos Associates              fax   +1 314 647 9241
  47154.    1699 S. Hanley Rd. Suite 303   email tripos.com!edmond@wupost.wustl.edu
  47155.    St.Louis MO 63144 USA
  47156. ---------------------------------------------------------------------------
  47157.  
  47158. Newsgroups: ch.general,comp.arch.parallel-sym,comp.lang.fortran,comp.lang.pascal,comp.parallel,comp.simulation,comp.sys.hp.misc,comp.sys.ibm.pc.misc
  47159. To: comp-parallel@uunet.UU.NET
  47160. Date: Mon, 13 Dec 1993 11:56:49 +0100
  47161. From: NEWS Manager <news@cscs.ch>
  47162. Sender: news@cscs.ch
  47163. Path: news
  47164. From: pc94@cscs.ch
  47165. Subject: PC94 Second Announcement
  47166. Message-ID: <1993Dec13.105638.6173@cscs.ch>
  47167. Keywords: High Performance Computing
  47168. Sender: pc94@cscs.ch 
  47169. Organization: Centro Svizzero di Calcolo Scientifico, CH-6928 Manno
  47170. Date: Mon, 13 Dec 1993 10:56:38 GMT
  47171.  
  47172. ---------------------------------------------------------------------------
  47173.  
  47174.                                 PC'94
  47175.  
  47176.                         (PHYSICS COMPUTING '94)
  47177.  
  47178.     The 6th Joint EPS-APS International Conference on Physics Computing
  47179.                  Lugano, Switzerland, Palazzo dei Congressi
  47180.                           August 22-26, 1994
  47181.  
  47182.                          (Second Announcement)
  47183.  
  47184. ---------------------------------------------------------------------------
  47185.  
  47186.     Jointly organized by the Swiss Scientific Computing Center
  47187.     (CSCS), Manno, Switzerland, belonging to the Swiss Federal
  47188.     Institute of Technology, Zurich (ETHZ), the EPS Interdisciplinary
  47189.     Group on Computational Physics and by the American Physical
  47190.     Society, Division of Computational Physics.
  47191.  
  47192.     Sponsored by EPS-APS, ETHZ, Computers in Physics, NEC
  47193.  
  47194. Scientific Program
  47195. ---------------------------------------------------------------------------
  47196.     PC'94 will give a detailed overview on the newest research
  47197.     results and developments in computational methodology for
  47198.     academia and industry, including invited papers, contributed
  47199.     papers, poster sessions, tutorials and vendor exhibitions.
  47200.     The purpose of the conference is to bring together researchers
  47201.     interested in innovative approaches in computational physics.
  47202.     Special emphasis will be given to algorithmical and high-
  47203.     performance computer implementation issues. Tutorial
  47204.     sessions organized by leaders in their respective fields will be
  47205.     held on the first conference day.
  47206.  
  47207. Invited Speakers and their presentation topics (August 23-26, 94)
  47208. ---------------------------------------------------------------------------
  47209.     Molecular Dynamics
  47210.        W. Andreoni, IBM Research Centre, Ruschlikon, CH
  47211.        L. Colombo, University of Milan, I
  47212.        V. Stepanyuk, Lomonosov State Univ. Moscow, Russia
  47213.  
  47214.     Physics Education
  47215.        C. Rebbi, Physics Dept., Boston Univ., USA
  47216.  
  47217.     Chaos and Dynamical Systems
  47218.        V. Demmel, MPI fur Extraterrestrische Physik, Garching, D
  47219.  
  47220.     Mesoscopic Physics
  47221.        H. deRaedt, Univ. of Groningen, NL
  47222.        E. Kaxiras, Dept. of Physics,  Harward Univ., USA
  47223.  
  47224.     Electronic Structure of Molecules and Materials
  47225.        L. Ixaru, Inst. of Physics, Univ. of Bucharest,  R
  47226.        You Zhou, Physics Inst., Univ. of Zurich, CH
  47227.  
  47228.     Plasmas
  47229.        U. Schwenn, MPI fur Plasma Physik, Garching, D
  47230.  
  47231.     Fluids and Turbulence
  47232.        T. Poinsot,  CERFACS, Toulouse, F
  47233.        S. Lanteri, Inria, F
  47234.  
  47235.     Climate Modeling
  47236.        J. Hunt, Weather Office, Bracknell, GB
  47237.  
  47238.     Parallel Computation in Physics
  47239.        K. Bowler, Dept. of Physics, Univ. of Edinburgh, GB
  47240.        G. Meurant, CEA, Dept. Mathematiques Appliquees, F
  47241.        M.C.Payne, Dept. of Physics, Univ. of Cambridge, GB
  47242.  
  47243.     Monte Carlo and Critical Phenomena
  47244.        K. Binder, Physics Inst., Johannes Gutenberg-Univ., Mainz, D
  47245.        I. Morgenstern, Physics Inst., Univ. of Regensburg, D
  47246.  
  47247.     Industrial Applications
  47248.        B. Larrouturou  INRIA, Sophia-Antipolis, F
  47249.        P. Sguazzero IBM ECSEC Center, Rome, I
  47250.  
  47251.     Self-Organization and Growth Phenomena
  47252.        M. Peyrard, Faculty of Science, Univ. of Lyon, F
  47253.        J. Kertesz, Bit, Budapest, H
  47254.  
  47255.     Cellular Automata and Lattice Gases
  47256.        B.Chopard, Parallel Computing Group, Univ. of Geneva, CH
  47257.  
  47258.     Numerical Methods
  47259.        I.M.Sobol, Inst. Math. Modelling, Moscow, Russia
  47260.        S. Obara, Dept. of Chemistry, Kyoto Univ., J
  47261.  
  47262. Tutorials (Monday, August 22, 1994)
  47263. ---------------------------------------------------------------------------
  47264.     1    -   Parallel Computation (1 day)
  47265.     2    -   Visualization Tools and Techniques (1 day)
  47266.     3a   -   Introduction to Finite Elements Methods (1/2 day)
  47267.     3b   -   Structured and Unstructured Adaptive Grids (1/2 day)
  47268.     4a   -   Wavelets and Fourier Analysis (1/2 day)
  47269.     4b   -   Electronic Structure Calculations  (1/2 day)
  47270.     5a   -   Introduction to Neural Networks (1/2 day)
  47271.     5b   -   Symbolic Computation (1/2 day)
  47272.  
  47273. Paper Submission (before February 28, 1994)
  47274. ---------------------------------------------------------------------------
  47275.     Original Papers should be limited to 4 pages and submitted
  47276.     before February, 28, 1994. Formatting details will be given in
  47277.     due time. Please submit 4 copies of all materials. Accepted
  47278.     papers will be included as posters or as oral presentations.
  47279.     Papers will only be accepted if at least one of the authors has
  47280.     registered.
  47281.     In contrast with the arrangements at previous conferences in
  47282.     the Physics Computing series, the papers will be printed prior
  47283.     to PC'94 in a proceedings volume, that will be distributed to
  47284.     participants at the beginning of the conference.
  47285.  
  47286. Registration
  47287. ---------------------------------------------------------------------------
  47288.     Registration fee:
  47289.        (1) EPS member and affiliated societies ONLY:
  47290.            I am sending Sfr. 370.- (Sfr. 420.- after May 1994)
  47291.            to the account (*).
  47292.        (2) I am sending Sfr. 400.- (Sfr. 450.- after May 1994)
  47293.            to the account (*).
  47294.        (*) Account:
  47295.            "PC'94" Nr. JE-150.761.0
  47296.            Swiss Bank Corporation (SBS)
  47297.            CH-6982 Agno, Switzerland
  47298.  
  47299.        At the conference there is the possibility to buy daily tickets at
  47300.        Sfr. 200.- /day.
  47301.  
  47302.        The registration fee covers the access to the conference and the
  47303.        proceedings book of the conference. Refund of the registration fee
  47304.        (less 10% administration costs) will only be granted if notification of
  47305.        cancellation has reached the conference secretariat before August 1,
  47306.        1994.
  47307.  
  47308.     Lunches:
  47309.        Sfr. 25.- /day, payable at the conference
  47310.  
  47311.     Tutorials: (Students 50%)
  47312.        Sfr. 200.- /half day
  47313.        Sfr. 300.- /day
  47314.        A tutorial takes place only if at least 10 participants have
  47315.        registered.
  47316.  
  47317. Registration Form
  47318. ------------------------------------------------------ >-8 ----------------
  47319.  
  47320.  Family Name: ____________________________________________________________
  47321.  
  47322.  First Name: _____________________________________________________________
  47323.  
  47324.  Organization: ___________________________________________________________
  47325.  
  47326.  Mailing Address: ________________________________________________________
  47327.  
  47328.  ZIP/City/State  _________________________________________________________
  47329.  
  47330.  Country: ________________________________________________________________
  47331.  
  47332.  Phone: ____________________________ Fax: ________________________________
  47333.  
  47334.  Email: __________________________________________________________________
  47335.  
  47336.  Tutorials:     1 ___ 2 ___  3a ___  3b ___  4a ___  4b ___  5a ___  5b __
  47337.  
  47338.  
  47339.  Date:______________________ Signature:___________________________________
  47340.  
  47341. ---- 8-< -------------------------------------------------------------------
  47342.  
  47343. PC '94 Scientific Advisory Committee
  47344. ---------------------------------------------------------------------------
  47345.     Dr.   Ralf Gruber (chairman)  CSCS, Manno, CH
  47346.     Dr.   Robert Allan            SERC, Daresbury, GB
  47347.     Dr.   David Anderson          Univ. of California, Livermore, USA
  47348.     Prof. Alfonso Baldereschi     EPFL, Lausanne, CH
  47349.     Dr.   Ernesto Bonomi          CSR4, Cagliari, I
  47350.     Prof. Roberto Car             Univ. of Geneva, CH
  47351.     Prof. Robert De Groot         Univ. of Nijemegen, NL
  47352.     Prof. Lev Degtyarev           Keldysh Institute, Moscow, Russia
  47353.     Prof. Geerd Diercksen         Max-Planck-Institut, Gerching bei Munchen, D
  47354.     Prof. Wolfgang Fichtner       ETH Zentrum, Zurich, CH
  47355.     Prof. Roland Glowinski        CERFACS, Toulouse, F
  47356.     Dr.   Frederick James         CERN, Geneva, CH
  47357.     Dr.   Richard Kenway          Edinburgh Univ., GB
  47358.     Prof. Peter Meier             Univ. of Zurich, CH
  47359.     Dr.   Jaroslav Nadrchal       Academy of Sciences, Praha, CZ
  47360.     Prof. Risto Nieminen          Helsinki University, Espoo, Finland
  47361.     Dr.   Elaine Oran             Naval Research Lab., Washington DC, USA
  47362.     Dr.   Jacques Periaux         Dassault Aviation, Saint-Cloud, F
  47363.     Dr.   Adnan Podoleanu         Polytechnical Institute of Bucharest, Russia
  47364.     Dr.   Sauro Succi             IBM ECSEC, Roma, I
  47365.     Dr.   Toshikazu Takada        NEC Corp. Tsukuba, Ibaraki, J
  47366.     Dr.   Marco Tomassini         CSCS, Manno, CH
  47367.     Prof. Tanias Vicsek           Eotvos University, Budapest, H
  47368.  
  47369. Hotel Information
  47370. ---------------------------------------------------------------------------
  47371.     Hotel reservations may be arranged through the Palazzo dei Congressi
  47372.     in Lugano (Tel:  +41/91/21 4774, Fax: +41/91/22 0323).
  47373.     Early registration is advisable in order to arrange proper accommodation.
  47374.  
  47375. Social Programme
  47376. ---------------------------------------------------------------------------
  47377.     A social programme is in preparation. An accompanying person's
  47378.     programme will be organized at the conference.
  47379.  
  47380. Additional Informations
  47381. ---------------------------------------------------------------------------
  47382.     The final program of the conference will be sent in June 1994.
  47383.     Inquiries about the Conference.
  47384.         PC'94
  47385.         Centro Svizzero di Calcolo Scientifico
  47386.         CH-6928 Manno (Switzerland)
  47387.         Tel:    +41/91/508211
  47388.         Fax:    +41/91/506711
  47389.         E-mail: pc94@cscs.ch
  47390.  
  47391. Official Carrier
  47392. ---------------------------------------------------------------------------
  47393.     Swissair
  47394.     Crossair
  47395.  
  47396.  
  47397. Approved: parallel@hubcap.clemson.edu
  47398. Follow-up: comp.parallel
  47399. Path: bounce-back
  47400. Newsgroups: comp.parallel
  47401. From: ukola@kastor.ccsf.caltech.edu (Adam Kolawa)
  47402. Subject: Parallel Programming Course Offered
  47403. Date: 13 Dec 1993 19:15:08 GMT
  47404. Organization: ParaSoft Corporation
  47405.  
  47406.     Parallel/Distributed Programming Course using PVM offered.
  47407.  
  47408. ParaSoft Corporation, the leader in distributed and parallel computing
  47409. tools, will conduct a hands on, introductory course on the theory and
  47410. practice of distributed and parallel computing.  ParaSoft has extended
  47411. their class offerings to now include PVM. The unique, hands-on focus of
  47412. this course, 75% of the total time, assures that participants will
  47413. gain a practical understanding of distributed computing applications.
  47414. Each participant will program on a workstation linked to a network
  47415. within the lab, to demonstrate and verify theoretical concepts
  47416. presented in the seminar.
  47417.  
  47418.  
  47419. Course Goals:  
  47420. Upon completion of the course, the participant will be able to:
  47421.  
  47422.    1.  Set up a simple job dispatcher with dynamic load balancing.  
  47423.    2.  Build an application which runs on multiple platforms.  
  47424.    3.  Implement process communication for tightly coupled applications.
  47425.  
  47426.  
  47427. Course Content:
  47428.  
  47429.    1. Theory - Introduction to parallel/distributed computing,
  47430.                programming models, programming environments.
  47431.  
  47432.    2. Labs   - Machine setup, Running parallel/distributed programs,
  47433.            basic parallel/distributed I/O, message passing, global
  47434.            operations, data decomposition, heterogeneous computing.
  47435.  
  47436.  
  47437. Prerequisites:  
  47438.    1. Working knowledge of C or Fortran.  
  47439.    2. Familiarity with Unix 
  47440.    3. Strong desire to learn about distributed computing.
  47441.  
  47442.  
  47443. Dates      :  Thursday, February 10 - Friday, February 11
  47444.  
  47445. Location   :  ParaSoft Offices - Pasadena, CA
  47446.  
  47447. Instructors:  Dr. Adam Kolawa - Experienced Parallel/Distributed Software
  47448.                                 Developer and lecturer on distributed
  47449.                 computing
  47450.  
  47451.  
  47452. Lab Setup:  Each participant will develop distributed applications at
  47453.             a workstation on a network within the lab.
  47454.  
  47455.  
  47456. Cost:  $495 - includes a complete set of tutorial materials.
  47457.  
  47458. Participation is limited, Please call or send email to ParaSoft early
  47459. to reserve your space.  Applications are accepted on a first-come,
  47460. first-serve basis.  We will be glad to help you arrange travel and
  47461. hotel accommodations.
  47462.  
  47463.  
  47464. For more information contact:
  47465.  
  47466. ParaSoft Corporation 
  47467. 2500 E. Foothill Blvd.
  47468. Pasadena, CA 91107-3464
  47469. voice:  (818) 792-9941 
  47470. fax  :  (818) 792-0819 
  47471. email:  info@parasoft.com
  47472.  
  47473. Approved: parallel@hubcap.clemson.edu
  47474. Follow-up: comp.parallel
  47475. Path: bounce-back
  47476. Newsgroups: comp.parallel
  47477. From: cary@esl.com (Cary Jamison)
  47478. Subject: Re: Data-parallel languages (non-CM C*)?
  47479. Date: 13 Dec 1993 19:57:36 GMT
  47480. Organization: ESL, Inc.  A TRW Company
  47481. References: <1993Dec7.155305.4663@hubcap.clemson.edu> <1993Dec10.135202.11275@hubcap.clemson.edu>
  47482. Nntp-Posting-Host: macm546.esl.com
  47483.  
  47484. In article <1993Dec10.135202.11275@hubcap.clemson.edu>, you wrote:
  47485. > "cary" == Cary Jamison <cary@esl.com> writes:
  47486. > cary> Can't say that it's an emerging standard, but HyperC seems
  47487. > cary> promising.  It is running on workstation clusters (usually built
  47488. > cary> on PVM), CM, MasPar, and is being ported to others such as
  47489. > cary> nCube.
  47490. > Is this similar to Babel's HyperTasking stuff he did while at Intel?
  47491.  
  47492. I don't think it's at all related.  HyperC is made by HyperParallel
  47493. Technologies in France.  It was developed there at a supercomputer center
  47494. (can't remember the name right now) and is being marketed in the US by
  47495. Fortunel Systems, Inc.  I don't want this to get too commercial, so
  47496. if anyone is interested in how to contact Fortunel, send me a private
  47497. email.
  47498.  
  47499. I'm not an expert on HyperC, just recently attended a seminar on it.
  47500. It is a commercial product.  Someone questioned whether it is running on
  47501. MasPar or not.  I thought they mentioned at the seminar that it was,
  47502. but I could be wrong--wouldn't be the first time!
  47503.  
  47504. Cary
  47505.   ********************************************************************
  47506.    EEEEE   SSS   L      Excellence                       Cary Jamison
  47507.    E      S      L       Service                         cary@esl.com
  47508.    EEEE    SSS   L        Leadership
  47509.    E          S  L
  47510.    EEEEE   SSS   LLLLL      A TRW Company
  47511.   ********************************************************************
  47512.  
  47513. Approved: parallel@hubcap.clemson.edu
  47514. Follow-up: comp.parallel
  47515. Path: bounce-back
  47516. Newsgroups: comp.parallel
  47517. From: mhchoy@ucsb.edu (Manhoi Choy)
  47518. Subject: asynchronous IO
  47519. Date: 13 Dec 1993 12:08:20 -0800
  47520. Organization: University of California, Santa Barbara
  47521. Sender: mhchoy@cs.ucsb.edu
  47522.  
  47523. I am trying to find a standard on message passing interface that supports
  47524. asynchronous IO. e.g I would like to be able to set up interrupt routines 
  47525. to handle messages and be able to send out messages asynchronously.
  47526. Existing tools such as PVM or P4 do not seem to support this. (Correct me
  47527. if I am wrong.) Is there a reason why asynchronous IO is not supported?
  47528. Are there anyone trying to include asynchronous IO in their "standard"?
  47529.  
  47530. Manhoi Choy
  47531. Department of Computer Science
  47532. University of California at Santa Barbara
  47533.  
  47534. Approved: parallel@hubcap.clemson.edu
  47535. Follow-up: comp.parallel
  47536. Path: bounce-back
  47537. Newsgroups: comp.parallel
  47538. From: thomas@wein12.elektro.uni-wuppertal.de (thomas faerbinger)
  47539. Subject: ?Hyper-C (Re: Data-parallel languages (non-CM C*)?)
  47540. Organization: University of Wuppertal
  47541. References: <1993Dec7.155305.4663@hubcap.clemson.edu> <1993Dec9.142826.1645@hubcap.clemson.edu>
  47542. Reply-To: thomas@wein01.elektro.uni-wuppertal.de (thomas faerbinger)
  47543.  
  47544. In article <1993Dec9.142826.1645@hubcap.clemson.edu>
  47545. cary@esl.com (Cary Jamison) wrote:
  47546.  
  47547. |> In article <1993Dec7.155305.4663@hubcap.clemson.edu>, richards@wrl.EPI.COM
  47548. |> (Fred Richards) wrote:
  47549. |> > 
  47550. |> > Is any data-parallel language emerging as a standard,
  47551. |> > much as PVM seems to be as a message-passing library?
  47552. |> > 
  47553. |> > Does C*, or something *very* similar, run on any of the
  47554. |> > other MPP machines (Intel, nCube, MasPar, etc.)
  47555. |> 
  47556. |> Can't say that it's an emerging standard, but HyperC seems promising.  It
  47557. |> is running on workstation clusters (usually built on PVM), CM, MasPar, and
  47558. |> is being ported to others such as nCube.
  47559.  
  47560. Is (the PVM-version of) Hyper-C ftp-able somewhere? ( where? )
  47561.  
  47562. I'm fumbling around with PVM ( on a small workstation-cluster running ULTRIX ),
  47563. CMMD and C* (on a CM5) and would like to complete this choice for some kind
  47564. of comparison.
  47565.  
  47566. Thanks a lot!
  47567.  
  47568. Thomas Faerbinger
  47569. thomas@wein01.elektro.uni-wuppertal.de
  47570.  
  47571. Approved: parallel@hubcap.clemson.edu
  47572. Follow-up: comp.parallel
  47573. Path: bounce-back
  47574. Newsgroups: comp.parallel
  47575. From: dewombl@cs.sandia.gov (David E. Womble)
  47576. Subject: Re: Information on Paragon
  47577. Keywords: Paragon performance
  47578. Organization: Sandia National Laboratories, Albuquerque, NM
  47579. References: <1993Dec6.143410.4616@hubcap.clemson.edu> <1993Dec10.135148.11153@hubcap.clemson.edu>
  47580.  
  47581. In article <1993Dec10.135148.11153@hubcap.clemson.edu> hcl@fai.com (Han Lung) writes:
  47582. >
  47583. >This is a request for information.  In Jack Dongarra's Linpack
  47584. >benchmark report, a 1872-processor Paragaon is listed as having a peak
  47585. >performance of 94 GFLOPS, which translates to 50 MFLOPS/processor.  The
  47586. >i860/XP microprocessor used in the Paragon, however, has a peak speed
  47587. >of 75 MFLOPS (1 multiply/2 clocks + 1 add/clock @ 50 MHz).  We believe
  47588. >that the Paragon should be rated at 140 GFLOPS.  (In other words,
  47589. >Paragon's effiency should be lower by one-third.)  Jack Dongarra
  47590. >contends that, since most applications do a multiply and add together,
  47591. >they cannot make use of 1 add/every other clock, thus 50 MFLOPS (1
  47592. >multiply/2 clocks + 1 add/2 clocks = 2 ops/2 clocks = 1 op/clock).
  47593. >However, an HPCwire report dated Oct. 28, 1993 states:
  47594. >
  47595. >> 2180) SANDIA BREAKS 100 GFLOPS MARK ON 1,840-NODE PARAGON SYSTEM 44 Lines 
  47596. >>    Albuquerque, N.M. -- Scientists at Sandia National Laboratories have 
  47597. >> achieved record-setting performance for the second time in as many months, 
  47598. >> as they recorded 102.050 GFLOPS on a double-precision complex LU
  47599. >                   ^^^^^^^^^^^^^^
  47600. >> factorization running on their full 1,840-node Intel Paragon supercomputer.
  47601. >
  47602. >The figures imply that each node runs at 55.5 MFLOPS (102 GFLOPS/1840). 
  47603. >This exceeds the per-node peak performance of the 1872-node Paragon
  47604. >listed in Table 3 of the Linpack report dated Nov. 23, 1993 (94
  47605. >GFLOPS/1872 = 50 MFLOPS/node).  Unless the clock rate of the Paragon
  47606. >used at Sandia is substantially faster than 50 MHz, the peak rating
  47607. >which appears in Table 3 cannot be correct.
  47608. >
  47609. >Does anyone know, or can anyone find out, the exact processor count and
  47610. >the clock rate for the Paragon installed at Sandia?
  47611. >
  47612. >As an aside, I don't see how one can get more than 50 MFLOPS from a
  47613. >processor, even for a complex multiply/add (2 +'s for add, 4 x's and 2
  47614. >+'s for multiply = 4 x's and 4 +'s, which takes 8 clocks, so on average
  47615. >1 op/clock, which gives 50 MFLOPS.  Any ideas on how to make use of the
  47616. >additional add?
  47617. >
  47618.  
  47619. As one of the authors of the Sandia code that achieved 102
  47620. gigaflops/second, I can clarify the details of both the Intel Paragon
  47621. at Sandia and the complex LU factorization code.
  47622.  
  47623. Sandia's Paragon:
  47624.   1840 compute nodes, each with an i860 processor running at 50 MHz
  47625.     for computation.
  47626.   The 1840 compute nodes have 37.6 gigabytes of memory.  (512 nodes
  47627.     have 32 megabytes and the remaining nodes have 16 megabytes.)
  47628.   64 disk nodes, each with a five disk RAID array storing 5 gigabytes
  47629.   9 service nodes for ethernet, HiPPI, or DAT connections or for user
  47630.     logins.
  47631.   2D mesh connection network with individual links capable of 200
  47632.     megabyte/second transfer rates.  The physical processor mesh (of
  47633.     compute nodes) is 16x115.
  47634.  
  47635. Complex LU factorization code:
  47636.   Factored a 42,000 x 42,000 double precision complex random matrix.
  47637.     Storage of the matrix required 28.2 gigabytes.  
  47638.   The matrix is decomposed to processors in a torus-wrap (or
  47639.     scattered) decomposition.  For this run the torus-wrap mapping
  47640.     matches the physical mesh (16 x 115 processors)
  47641.   The code performs partial pivoting based on a search of a column for
  47642.     the entry of largest magnitude.
  47643.   The code runs under the SUNMOS operating system.  SUNMOS provides a
  47644.     small, fast, message passing kernel on each compute node.  The kernel
  47645.     requires only 250 kilobytes of memory, and can achieve communication
  47646.     speeds of 175 megabytes/second (for large messages)
  47647.   The code uses the BLAS 3 routine ZGEMM written for Intel by Kuck and
  47648.     Associates and distributed with the Paragon as its computational
  47649.     kernel. 
  47650.   The "same" code doing a real LU factorization achieves 72.9 gigaflops,
  47651.     which is the number appearing in Dongarra's linpack report.
  47652.   
  47653. The previous poster's "real" question had to do with how performance
  47654. of 55.5 megaflops/node was achieved, and the answer here lies in the
  47655. implementation of the ZGEMM routine in the level 3 BLAS.  In
  47656. particular, ZGEMM uses a Winograd algorithm on 1 x 2 blocks to
  47657. exchange 8 multiplications and 8 additions for 6 multiplications and
  47658. 10 additions.  NOTE that the number of floating point operations does
  47659. NOT change (16 in both cases), but the mix of additions and
  47660. multiplications does change.  The theoretical peak for the ZGEMM
  47661. routine is thus 66.7 megaflops/node (assuming that the additions can
  47662. be fully overlapped and that the six multiplications take 12 clock
  47663. cycles).  The operation count used for the LU factorization is 8n^3/3;
  47664. lower order terms in the operation count are not added in. 
  47665.  
  47666. In conclusion, the peak speed of the Intel Paragon at Sandia is 140
  47667. gigaflops/second, and some applications have, or can be made to have,
  47668. an operation mix that matches the architecture.
  47669.  
  47670. =============================
  47671. David E. Womble
  47672. Sandia National Laboratories
  47673. Albuquerque, NM 87185-1110
  47674.  
  47675. (505) 845-7471 (voice)
  47676. (505) 845-7442 (fax)
  47677. dewombl@cs.sandia.gov (email)
  47678. =============================
  47679.  
  47680. Approved: parallel@hubcap.clemson.edu
  47681. Follow-up: comp.parallel
  47682. Path: bounce-back
  47683. From: jab@maths.uq.oz.au (John Belward)
  47684. Newsgroups: uq.general,aus.jobs,aus.parallel,comp.parallel,comp.parallel.pvm
  47685. Subject: Post Doc & PhD Schol in Queensland Australia
  47686. Organization: Maths, University of Queensland
  47687. Nntp-Posting-Host: axiom.maths.uq.oz.au
  47688. Sender: news@cc.uq.oz.au
  47689.  
  47690.            POST DOCTORAL RESEARCH FELLOWSHIP AND PH.D. SCHOLARSHIPS 
  47691.  
  47692. Centre for Industrial and Applied Mathematics and Parallel Computing (CIAMP)
  47693.             High Performance Computing Unit (HPCU)
  47694.  
  47695.     DEPARTMENT OF MATHEMATICS                  THE UNIVERSITY OF QUEENSLAND
  47696.  
  47697.  
  47698. Professor Kevin Burrage and A/Professor John Belward have been awarded a
  47699. 3 year ARC Collaborative Research Grant to work on the development of an
  47700. integrated software environment on a supercomputer platform for land
  47701. management systems in conjunction with the Queensland Department of
  47702. Primary Industries.
  47703.  
  47704. Post Doctoral applicants should have a strong background in scientific 
  47705. computing and have experience with vector and/or MIMD parallel programming.  
  47706. A working knowledge of GIS software and Database systems would also be useful.
  47707.  
  47708. The appointment will be for a period of 3 years.
  47709. Salary:  \$36,285 per annum
  47710. Closing date:  15 February 1994
  47711.  
  47712. CIAMP and the HPCU have entered into a substantial collaborative
  47713. agreement with the Queensland Department of Primary Industries (QDPI) to
  47714. develop and implement parallel computational algorithms with spatial
  47715. modelling and environmental applications.
  47716.  
  47717. Ph. D. Scholarships are available from CIAMP as top ups for 1994--1996 for 
  47718. two students with new APAs.  These scholarships will each be in excess of
  47719. \$5,000 for each of the three years.  Applicants should have a strong
  47720. background in Mathematics and Computer Science.
  47721.  
  47722. These appointments will provide opportunity for
  47723.     close collaboration with a prestigious Government
  47724.             establishment (QDPI) on problems of national importance;
  47725.     access to state of the art hardware including an advanced computational
  47726.         lab of SUN workstations, a Silicon Graphics INDIGO, a DEC alpha         workstation and colour printer;
  47727.     network access to a Cray YMP-2D and 4096 processor
  47728.             MasPar MP1 sited at the University of Queensland;
  47729.     a stimulating research environment of approximately 12
  47730.         Ph.D students and two research fellows working on various 
  47731.         aspects of scientific computing.
  47732.  
  47733. Further details may be obtained from:
  47734.  
  47735. Professor K. Burrage:  phone (07) 365 3487, email address kb@maths.uq.oz.au
  47736. Dr J. Belward:  phone (07) 365 3257, email address jab@maths.uq.oz.au.
  47737.  
  47738. Please forward applications and resume to the Head, Department of
  47739. Mathematics, The University of Queensland, Qld  4072, fax (07)8702272.
  47740.  
  47741. Approved: parallel@hubcap.clemson.edu
  47742. Follow-up: comp.parallel
  47743. Path: bounce-back
  47744. Newsgroups: comp.parallel
  47745. From: tanner@nas.nasa.gov (Leigh Ann Tanner)
  47746. Subject: Intel Supercomputer Users' Group Meeting
  47747. Nntp-Posting-Host: sundog.nas.nasa.gov
  47748. Organization: NAS/NASA-Ames Research Center
  47749. Date: Tue, 14 Dec 1993 01:08:23 GMT
  47750. Apparently-To: comp-parallel@ames.arc.nasa.gov
  47751.  
  47752. Mark Your Calendars!!
  47753.  
  47754. The Intel Supercomputer Users' Group Meeting will be
  47755. held January 26-29, 1994 in San Diego, California. 
  47756.  
  47757.  
  47758. A Request for Papers will be posted soon.
  47759.  
  47760. Approved: parallel@hubcap.clemson.edu
  47761. Follow-up: comp.parallel
  47762. Path: bounce-back
  47763. Newsgroups: comp.parallel
  47764. From: lancer@cs.montana.edu (Lance Kind)
  47765. Subject: Generating a random number for a shape with C* for the CM2
  47766. Date: 14 Dec 1993 08:28:37 GMT
  47767. Organization: Computer Science, MSU, Bozeman MT, 59717
  47768.  
  47769.     I've been trying to generate a random (rnd) number for a 2-D shape
  47770. without success.  nrand48, lrand48 and, it seems, any other fct that uses 
  47771. an external 
  47772. seed cause a core dump.
  47773.  
  47774. rnd(void) works but it just copies the same rnd # to every element of the
  47775. shape.  This is why I wanted to use a rnd fct which takes an external seed
  47776. cause then I could do:
  47777.  
  47778.    shape = nrand48(shape);  <- where the shape input for the seed has unique
  47779.                                numbers.
  47780.  
  47781. But alas, like I said the bugger causes a core dump.  Anyone have a better
  47782. way of creating rnd numbers for an entire shape?
  47783.  
  47784. Please respond via my mail address: lancer@fubar.cs.montana.edu
  47785.  
  47786. ==>Lancer---
  47787.  
  47788.  
  47789.  
  47790. Approved: parallel@hubcap.clemson.edu
  47791. Follow-up: comp.parallel
  47792. Path: bounce-back
  47793. Newsgroups: comp.parallel
  47794. From: cheekong@iss.nus.sg (Chui Chee Kong)
  47795. Subject: performance
  47796. Date: 14 Dec 1993 09:38:47 GMT
  47797. Organization: Institute Of Systems Science, NUS
  47798.  
  47799. I am trying to compare the performance of a distributed codes I have
  47800. written for cluster of workstations. The codes use Gaussian elimination 
  47801. method to solve a set of linear systems of equations. 
  47802. both pivoting and no pivoting are considered.
  47803.  
  47804. will appreciate if someone can supply me with info on
  47805. the fastest serial or parallel software (preferably public available), 
  47806. how to get the software, performance figures on other parallel 
  47807. machines etc.
  47808.  
  47809. Thanks.
  47810.  
  47811.  
  47812. chee kong
  47813. internet: cheekong@iss.nus.sg
  47814.  
  47815. Approved: parallel@hubcap.clemson.edu
  47816. Follow-up: comp.parallel
  47817. Path: bounce-back
  47818. Newsgroups: comp.parallel,comp.parallel.pvm,sci.math.num.analysis
  47819. From: erlendh@zapffe.mat-stat.uit.no (Erlend Helmersen)
  47820. Subject: Parallel 2D-fft
  47821. Sender: news@uit.no (News admin.)
  47822. Date: Tue, 14 Dec 1993 11:02:23 GMT
  47823. Organization: University of Tromsoe
  47824. Keywords: fft, parallel
  47825. Apparently-To: hypercube@hubcap.clemson.edu
  47826.  
  47827.  
  47828. -- 
  47829.  
  47830. Hello everybody.
  47831.  
  47832. I am about to implement a numerical method to solve a two-dimensional
  47833. (in space), nonlinear, time-dependent system of partial differential 
  47834. equations using a spectral (fourier) method. I am so lucky to have
  47835. access to 98 compute node Intel Paragon which I am considering to use 
  47836. instead of a Cray Y/MP-464. My problem is that on the Paragon there exists
  47837. no implementation of a 2D-fft routine. Since much of the computations
  47838. in the numerical scheme lies in the fft's there is much to gain in speed
  47839. by having a good implementation of this fft routine. 
  47840.  
  47841. My question to you is: Is there an implementation of a 2D-fft routine
  47842. using NX (the message passing system on the Paragon which is faster than PVM),
  47843. or in PVM. I really hope someone is able to help on this.
  47844.  
  47845. Please email me.
  47846.  
  47847. -------------------------------------------------------------------------------
  47848.  Erlend Helmersen                                 E-mail : erlendh@math.uit.no
  47849.  Institute of Mathematical and Physical Sciences  Phone  : intl. + 83 44016
  47850.  University of Tromsoe                            Fax    : intl. + 83 55418   
  47851.  N-9037 TROMSOE, Norway
  47852. ------------------------------------------------------------------------------
  47853.  
  47854.  
  47855. Approved: parallel@hubcap.clemson.edu
  47856. Follow-up: comp.parallel
  47857. Path: bounce-back
  47858. Newsgroups: comp.parallel
  47859. From: ukeller@pallas-gmbh.de (Udo Keller)
  47860. Subject: MPI Workshop, 2nd Announcement
  47861. Date: 14 Dec 1993 13:14:52 +0100
  47862. Organization: PALLAS GmbH
  47863. Reply-To: mpi-ws@pallas-gmbh.de
  47864.  
  47865.                         Second Announcement
  47866.  
  47867.  
  47868.            E U R O P E A N     M P I     W O R K S H O P
  47869.  
  47870. MPI,  the  new standard for message-passing programming, has  been
  47871. published recently. It is the aim of the European MPI Workshop  to
  47872. organize  the  dissemination of MPI in Europe and to  collect  the
  47873. European  developers'  view on MPI. The MPI  Workshop  will  bring
  47874. together  European software developers with experience in parallel
  47875. computing, in particular message passing.
  47876.  
  47877. Date:              January 17/18, 1994
  47878.                    January 18/19, 1994 (MPI Committee only)
  47879.  
  47880. Location:          INRIA Sophia Antipolis (near Nice)
  47881.  
  47882. Organized by:      PALLAS, GMD, INRIA (for the ESPRIT project PPPE)
  47883.  
  47884. Registration fee:  70 ECU or 450 FF (75 US$)
  47885.                    (to be paid cash at registration)
  47886.  
  47887.  
  47888. Accomodation:
  47889. A  block reservation has been made in the Hotel OMEGA (3 stars) in
  47890. Sophia  Antipolis (800 m from INRIA). Prices are 390 FF  (65  US$)
  47891. for  a  single room, 500 FF (83 US$) for a double room. The  block
  47892. reservation and prices are valid until January 5, 1994. After this
  47893. time accomodation in the Hotel Omega is not guaranteed.
  47894.  
  47895.  
  47896. Transport:
  47897. A  shuttle bus will be going from Nice airport to INRIA on  Monday
  47898. (17th) morning at 11.00, and from INRIA to Nice airport on Tuesday
  47899. and  Wednesday afternoon. Otherwise taxi transport is recommended.
  47900. Bus tranfer from Hotel OMEGA to INRIA and back is provided.
  47901.  
  47902.  
  47903. Registration fee:
  47904. The  registration fee covers refreshments, lunches, transport  and
  47905. the  reception on Monday night. Due to the short notice no  cheque
  47906. or  bank  transfer  payments  can be accepted.  As  usual  at  the
  47907. preceeding MPI meetings in the US, please pay the registration fee
  47908. (450 FF) in cash.
  47909.  
  47910.  
  47911. How to register:
  47912. Please  fill  out the enclosed registration form and  send  it  to
  47913. Monique Simonetti, INRIA Sophia Antipolis (full address is on  the
  47914. enclosed  registration form). PPPE project  partners  should  also
  47915. register. You will be informed if your registration could  not  be
  47916. accepted. (Because of capacity limitations, the maximum number  of
  47917. participants is 80.)
  47918.  
  47919.  
  47920. More information:
  47921. For  more  information  about the European  MPI  Workshop  and  to
  47922. receive  the  MPI standard document, please contact  PALLAS:  mpi-
  47923. ws@pallas-gmbh.de.
  47924.  
  47925. ------------------------------------------------------------------------------
  47926.  
  47927.                          Tentative Agenda
  47928.  
  47929.  
  47930.            E U R O P E A N     M P I     W O R K S H O P
  47931.  
  47932.  
  47933.  
  47934. Monday, January 17:
  47935.  
  47936.     11:00 - 13:00 Registration
  47937.  
  47938.     13:00         L U N C H
  47939.  
  47940.     14:00         Welcome and introduction
  47941.     14:30         Basic MPI
  47942.     15:00         Advanced concepts in MPI message-passing
  47943.     15:30         Writing libraries with MPI
  47944.     16:00         Process topologies
  47945.     16:30         Implementing MPI
  47946.     17:00         Discussion
  47947.     18:00         Outlook: MPI-2
  47948.  
  47949.     19:30         R E C E P T I O N  and
  47950.               B U F F E T  D I N N E R
  47951.  
  47952.  
  47953. Tuesday, January 18:
  47954.  
  47955.     09:00         Requirements of message-passing code developers*
  47956.     11:00         Statements of hardware and software vendors*
  47957.     11:30         Migration from existing message-passing libraries to MPI*
  47958.     11:45         Discussion
  47959.     13:00         End of European MPI Workshop
  47960.  
  47961.     13:00         L U N C H
  47962.  
  47963.     14:00         MPI Committee Meeting
  47964.  
  47965.     20:00         D I N N E R
  47966.           (cost not included in registration fee)
  47967.  
  47968.     * Contributions from code developers, software companies and
  47969.       hardware vendors are highly welcome. Please contact
  47970.       karls@pallas-gmbh.de.
  47971.  
  47972.  
  47973. Wednesday, January 19:
  47974.  
  47975.     09:00         MPI Committee Meeting continued
  47976.     13:00         End of MPI Committee Meeting
  47977.  
  47978.     13:00         L U N C H
  47979.  
  47980. For PPPE partners: The PPPE meeting will start on Tuesday, January
  47981. 18 at 14.00.
  47982.  
  47983. -----------------------------------------------------------------------------
  47984.  
  47985.                          Registration Form
  47986.  
  47987.  
  47988.            E U R O P E A N     M P I     W O R K S H O P
  47989.  
  47990.  
  47991.            January 17-19, 1994,  INRIA Sophia Antipolis
  47992.  
  47993.  
  47994.  
  47995. Name
  47996. ______________________________________________________________
  47997.  
  47998. Organization
  47999. ______________________________________________________________
  48000.  
  48001. Full address
  48002. ______________________________________________________________
  48003.  
  48004. Phone_______________  fax _______________  email _____________
  48005.  
  48006.  
  48007.  
  48008. Hotel reservation
  48009.  
  48010. I book in the Hotel OMEGA, Sophia Antipolis
  48011.  
  48012. __ single room from     Jan __ until Jan __ (= _ nights)
  48013. (390 FF per night)
  48014.  
  48015. __ double room from     Jan __ until Jan __ (= _ nights)
  48016. (500 FF per night)
  48017.  
  48018. I want to participate at the dinner on Tuesday, January 18 night:
  48019. yes ___   no ___
  48020.  
  48021.  
  48022.  
  48023. Travel plans
  48024.  
  48025. To organize transport from Nice airport to INRIA, please indicate
  48026. your travel plans
  48027.  
  48028.  
  48029. Arrival at Nice Airport:
  48030.  
  48031. date/time: __________   flight from: ________________
  48032.  
  48033.  
  48034. Departure from Nice Airport:
  48035.  
  48036. date/time: __________   flight to: __________________
  48037.  
  48038.  
  48039. Please send this form to
  48040.  
  48041. Monique Simonetti                   Phone:   +33-93 65 78 64
  48042. Relations Exterieurs                Fax:    +33-93 65 79 55
  48043. Bureau des Colloques                email:
  48044. simoneti@sophia.inria.fr
  48045. INRIA Sophia Antipolis
  48046. 2004, Route de Lucioles
  48047. BP 93
  48048.  
  48049. F-06902 SOPHIA ANTIPOLIS CEDEX
  48050. France
  48051.  
  48052. -----------------------------------------------------------------------------
  48053.  
  48054.                                                               
  48055.                        Flight Information
  48056.                                 
  48057.                                 
  48058.           E U R O P E A N     M P I     W O R K S H O P
  48059.  
  48060.  
  48061. The most convenient airport to get to INRIA Sophia Antipolis  is
  48062. Nice.
  48063.  
  48064. Here  are some flight connections (other direct flights to these
  48065. and other destinations are available)
  48066.  
  48067.  
  48068.  
  48069. Paris (Orly) - Nice                Nice - Paris (Orly)
  48070.  
  48071. Jan 16:  17.55 - 19.15             Jan 18:  18.00 - 19.30
  48072.          18.25 - 19.45                      19.05 - 20.25
  48073.  
  48074. Jan 17:  09.20 - 10.40             Jan 19:  08.05 - 09.25
  48075.          09.35 - 11.05                      09.05 - 10.25
  48076.  
  48077.  
  48078.  
  48079. Brussels - Nice                    Nice - Brussels
  48080.  
  48081. Jan 16:  14.30 - 16.10             Jan 18:  17.00 - 18.40
  48082.  
  48083. Jan 17:  09.35 - 11.15             Jan 19:  12.05 - 13.45
  48084.  
  48085.  
  48086.  
  48087. Frankfurt - Nice                   Nice - Frankfurt
  48088.  
  48089. Jan 16:  16.20 - 17.55             Jan 18:  18.35 - 20.20
  48090.  
  48091. Jan 17:  08.30 - 10.00             Jan 19:  10.40 - 12.25
  48092.  
  48093.  
  48094.  
  48095. Amsterdam - Nice                   Nice - Amsterdam
  48096.  
  48097. Jan 16:  13.30 - 15.20             Jan 18:  16.05 - 18.10
  48098.  
  48099. Jan 17:  09.05 - 10.55             Jan 19:  11.40 - 13.45
  48100.  
  48101.  
  48102. -- 
  48103. ----------------------------------------------------------------------------
  48104. Udo Keller                      phone      :    +49-2232-1896-0
  48105. PALLAS GmbH                     fax        :    +49-2232-1896-29
  48106. Hermuelheimer Str.10            direct line:    +49-2232-1896-15
  48107. D-50321 Bruehl                  email      :    ukeller@pallas-gmbh.de
  48108. ----------------------------------------------------------------------------
  48109.  
  48110. Approved: parallel@hubcap.clemson.edu
  48111. Follow-up: comp.parallel
  48112. Path: bounce-back
  48113. From: enbody@ss65.cps.msu.edu (Richard Enbody)
  48114. Newsgroups: comp.parallel,comp.sys.super
  48115. Subject: Re: Performance figures for the Intel Paragon...
  48116. Organization: Michigan State University, CPS Department
  48117. References: <1993Dec13.201329.22625@hubcap.clemson.edu>
  48118.  
  48119. I don't have the exact data you requested, but I do have
  48120. some infomation that might help you interpret other's data.
  48121.  
  48122. In article <1993Dec13.201329.22625@hubcap.clemson.edu>, "Brian D. Alleyne" <alleyne@diana.ICS.UCI.EDU> writes:
  48123. |> Measurement times on the Intel Paragon...
  48124. |> 
  48125. |> Would anyone have the following data?
  48126. |> 
  48127. |> >From the time that you decide to seed a message, how long does it take
  48128. |> (software overhead) to send a message to the network.
  48129. |> (ie. this does not include the latency of the network, just the time to
  48130. |> launch a message).
  48131. |> 
  48132. |> What is the transfer time for a random communication.
  48133. |> (ie, every processing node picks another at random, and sends a
  48134. |> message there at the same time. Want the time for all messages to
  48135. |> get to their destinations for a small message ~ 64 bytes or less).
  48136. |> 
  48137.  
  48138. I've ping-ponged messages on wormhole-routed machines, both Symult
  48139. and Intel Touchstone Delta, and found that very small messages that
  48140. you are asking about don't interfere with each other on the Delta.  
  48141. I didn't use random patterns, but used patterns where I maximized
  48142. contention.  If they didn't interfere with my pattern, they will not
  48143. with a "random" pattern.
  48144.  
  48145. |> What is the transfer rate for a random communication.
  48146. |> (ie, every processing node picks another at random, and
  48147. |> sends a message there. Message should be of the order of 64kbytes).
  48148. |> 
  48149.  
  48150. Now, if you want to send hundreds of bytes or, in your case, thousands
  48151. of bytes, you can see a noticable effect from contention on the Delta.
  48152. Again, I didn't use random patterns, but used ones that maximized
  48153. contention.  
  48154.  
  48155. I didn't calculate an absolute rate of communication.  I measured
  48156. the relative rate of communication with and without contention.
  48157. Using my worst case pattern, I could see a factor of four increase across a
  48158. 16x16 mesh of nodes using messages of a few hundred bytes.  Also,
  48159. I saturated the mesh with lots of messages.  One quick burst would
  48160. probably complete quickly.
  48161.  
  48162. These times were gathered on the Intel Touchstone Delta which is a 
  48163. predecessor of the Paragon.  The effects I noticed will probably
  48164. differ more because of the change in operating system than by
  48165. hardware changes on the Paragon.  I hope to soon get access to a Paragon 
  48166. to measure the differences.
  48167.  
  48168. Let me know if you want more information.  I'm working up a paper
  48169. on my data, but it will not be ready for a few weeks at least.
  48170. I am gathering some measurements while running a particle Physics
  48171. application (ab initio Carbon clustering).
  48172.  
  48173. -rich
  48174. enbody@cps.msu.edu
  48175.  
  48176. Approved: parallel@hubcap.clemson.edu
  48177. Follow-up: comp.parallel
  48178. Path: bounce-back
  48179. Newsgroups: comp.parallel
  48180. From: ebert@cs.umbc.edu (Dr. David Ebert)
  48181. Subject: CFP: 1994 Symposium on Volume Visualization
  48182. Organization: U. Maryland Baltimore County Computer Science Dept.
  48183.  
  48184.  
  48185.            1994 Symposium on Volume Visualization
  48186.  
  48187.          October 17-18, 1994 Washington, DC
  48188.                    
  48189.             Call for Participation
  48190.  
  48191. Following our three successful meetings (the Chapel Hill '89, San Diego '90,
  48192. and Boston '92 Workshops on Volume Visualization), this fourth meeting 
  48193. will provide the opportunity for demonstrations of new developments in this
  48194. evolving area. Scientists from all disciplines involved in the visual
  48195. presentation and interpretation of volumetric data are invited 
  48196. to both submit and attend this Symposium.
  48197.  
  48198. The Symposium is sponsored by ACM-SIGGRAPH and the IEEE Computer Society
  48199. Technical Committee on Computer Graphics. This Workshop will take place during
  48200. the week of October 17-21, 1994 at the Sheraton Premiere at Tyson Center Hotel
  48201. in Washington DC area, in conjunction with the Visualization '94 Conference.
  48202.  
  48203. Six copies of original material should be submitted to the program co-chairs
  48204. on or before March 31, 1994. Authors from North America are asked
  48205. to submit their papers to Arie Kaufman. All others are to submit their
  48206. papers to Wolfgang Krueger. Suggested topics include, but are not limited to:
  48207.  
  48208. * Volume visualization of unstructured and irregular grids.
  48209. * Parallel and distributed volume visualization.
  48210. * Hardware and software systems.
  48211. * Validation and control of rendering quality. 
  48212. * Volume segmentation and analysis. 
  48213. * Management, storage, and rendering of large datasets.
  48214. * User interfacing to volume visualization systems.
  48215. * Acceleration techniques for volume rendering.
  48216. * Fusion and visualization of multimodal and multidimensional data.
  48217. * Visualization of non-scalar volumetric information.
  48218. * Modeling and realistic rendering with volumes.
  48219. * Discipline-specific application of volume visualization.
  48220.  
  48221. Papers should be limited to 5,000 words and may be accompanied by an NTSC
  48222. video (6 copies, please).  The accepted papers will appear in the Symposium
  48223. Proceeding that will be published by ACM/SIGGRAPH and will be distributed 
  48224. to all SIGGRAPH Member "Plus".
  48225.  
  48226. Program Co-chairs:
  48227. Arie Kaufman                Wolfgang Krueger
  48228. Computer Science Department        Dept. of Scientific Visualization, GMD-HLRZ
  48229. State University of New York        P.O. Box 1316, Schloss Birlinghoven
  48230. Stony Brook, NY 11794-4400        D-5205 Sankt Augustin 1  GERMANY 
  48231. Telephone: 516-632-8441/8428        Telephone: +49 (2241) 14-2367
  48232. Fax:       516-632-8334            Fax:       +49 (2241) 14-2040 
  48233. Email:     ari@cs.sunysb.edu        Email:     krueger@viswiz.gmd.de
  48234.  
  48235. Symposium Co-chairs:
  48236. Roni Yagel                Holly Rushmeier
  48237. Dept. of Computer Science        Rm. B-146, Bldg. 225
  48238. The Ohio State University        NIST
  48239. 2036 Neil Av. Columbus, OH 43210    Gaithersburg, MD 20899
  48240. Telephone: 614-292-0060                Telephone: 301-975-3918
  48241. Fax:       614-292-2911            Fax:       301-963-9137
  48242. Email:     yagel@cis.ohio-state.edu Email:     holly@cam.nist.gov
  48243.  
  48244. Program Committee:
  48245. Nick England     - University of North Carolina, Chapel Hill
  48246. Pat Hanrahan     - Princeton University
  48247. Marc Levoy     - Stanford University
  48248. Bill Lorensen     - General Electric Co.
  48249. Nelson Max     - Lawrence Livermore National Labs
  48250. Greg Nielson     - Arizona State University
  48251. Sam Uselton     - CS Corp - NASA Ames
  48252. Jane Wilhelms     - University of California at Santa Cruz
  48253.  
  48254. Symposium Committee:
  48255. David Ebert     - University of Maryland, Baltimore County
  48256. Todd Elvins     - San Diego Supercomputer Center
  48257. Larry Gelberg     - AVS
  48258.  
  48259. -- 
  48260. -- Dr. David S. Ebert, Computer Science Department, University of Maryland, --
  48261. --- Baltimore County; 5401 Wilkens Ave., Baltimore, MD USA 21228-5398  -------
  48262. ------ ebert@cs.umbc.edu or ..!{att,pyramid,killer}!cs.umbc.edu!ebert --------
  48263. -------------------------------------------------------------------------------
  48264.  
  48265.  
  48266. Approved: parallel@hubcap.clemson.edu
  48267. Follow-up: comp.parallel
  48268. Path: bounce-back
  48269. Newsgroups: comp.parallel
  48270. From: dbader@eng.umd.edu (David Bader)
  48271. Subject: Re: Generating a random number for a shape with C* for the CM2
  48272. Organization: Professional Student, University of Maryland, College Park
  48273. References: <1993Dec14.140837.21646@hubcap.clemson.edu>
  48274.  
  48275. In article <1993Dec14.140837.21646@hubcap.clemson.edu>, lancer@cs.montana.edu (Lance Kind) writes:
  48276. >   shape = nrand48(shape);  <- where the shape input for the seed has unique
  48277. >                               numbers.
  48278. >
  48279.  
  48280. Huh??
  48281.  
  48282. How about something like: (in CM-2 C*)
  48283.  
  48284. shape [X][Y] my_shape;
  48285.  
  48286. with (my_shape) {
  48287.    int:current my_rand;
  48288.  
  48289.    psrand(time(0));
  48290.    my_rand = prand();
  48291. }
  48292.  
  48293.  
  48294.  
  48295. -david
  48296.  
  48297. David A. Bader 
  48298. Electrical Engineering Department
  48299. A.V. Williams Building
  48300. University of Maryland
  48301. College Park, MD 20742
  48302. 301-405-6755   
  48303.  
  48304. Internet: dbader@eng.umd.edu
  48305.  
  48306.    
  48307.  
  48308.  
  48309. Approved: parallel@hubcap.clemson.edu
  48310. Follow-up: comp.parallel
  48311. Path: bounce-back
  48312. Newsgroups: comp.lang.fortran,comp.parallel
  48313. From: forge@netcom.com (FORGE Customer Support)
  48314. Subject: FORTRAN PARALLELIZATION WRKSHOP 1-3FEB94
  48315. Keywords: PARALLEL WORKSHOP FORTRAN
  48316. Organization: Applied Parallel Research, Inc. 
  48317. Date: Tue, 14 Dec 1993 17:24:15 GMT
  48318.  
  48319. ===============================================================               
  48320. APR   Applied Parallel Research, Inc.  Workshop 1-3 February 94
  48321. ===============================================================
  48322.  
  48323.  
  48324.           PARALLEL PROCESSING IN FORTRAN --  WORKSHOP
  48325.                  Placerville, CA   1-3 February 1994 
  48326.  
  48327.  
  48328. APR announces a three-day workshop on parallel processing techniques in
  48329. Fortran, and the use of APR's FORGE parallelization tools.
  48330.  
  48331. The instructors will be Gene Wagenbreth and John Levesque, Applied
  48332. Parallel Research, Inc.
  48333.  
  48334. Each day of the workshop includes time for individual and group
  48335. "hands-on" practice with APR's FORGE tools.  Participants are 
  48336. encouraged to bring their own programs to work on.
  48337.  
  48338. This workshop will also present APR's new batch tools, dpf and xhpf,
  48339. that have the capability of automatically parallelizing real Fortran
  48340. programs for distributed memory systems.
  48341.  
  48342.  
  48343. OUTLINE:
  48344.  
  48345. Day 1:  AM:  Intro to Parallel Processing
  48346.         o  Parallel architectures - SIMD & MIMD
  48347.         o  Memory architectures - Shared, Distributed, Multi-level
  48348.         o  Programming paradigms - Domain decomposition, SPMD
  48349.         o  Language issues - Fortran 77, 90, High Performance Fortran
  48350.         o  Performance measurement - profiling tools, parallel simulation
  48351.  
  48352.         PM:  Intro to FORGE 90
  48353.         o  Overview
  48354.         o  Source code browser
  48355.         o  Instrumenting serial programs
  48356.         o  Workshop using FORGE 90
  48357.  
  48358.  
  48359. Day 2:  AM:  Parallelizing for Distributed Memory using FORGE 90 (DMP and dpf)
  48360.         o  Data decomposition
  48361.         o  Loop distribution
  48362.         o  Using APR Directives in Fortran 77 Programs - dpf
  48363.         o  Using AutoMAGIC parallelization within dpf and xHPF 
  48364.         o  The programming model - SPMD paradigm
  48365.         o  Parallel Simulator
  48366.         o  Parallelization inhibitors/prohibitors
  48367.         o  Efficiency of transformations
  48368.         o  Problems and work-arounds
  48369.  
  48370.         PM:   Open Workshop using FORGE 90 DMP 
  48371.  
  48372.  
  48373. Day 3:  AM:  FORGE 90's High Performance Fortran Products - xhpf
  48374.         o  Overview
  48375.         o  HPF Data Distribution Directives
  48376.         o  Using HPF directives in Fortran 77 programs - xhpf
  48377.         o  Using HPF directives in Fortran 90 programs - xhpf
  48378.         o  Investigation of Parallelization Results using FORGE 90 DMP
  48379.         o  Using the Parallel Profiler with xhpf
  48380.  
  48381.         PM:  Open Workshop using FORGE 90 DMP, dpf and xhpf
  48382.            modules over IBM RS6K and HP/9000 workstations using PVM.
  48383.            Bring your own codes to work with on cartridge tape.  
  48384.            FTP access is available from our network.
  48385.  
  48386. -------------------------------------------------------------------------
  48387. Registration fee is $1000 ( $800 for FORGE 90 customers), and includes
  48388. materials and access to workstations running FORGE 90 and PVM.
  48389.  
  48390. Location is at the offices of Applied Parallel Research in 
  48391. Placerville, California, (45 miles east of Sacramento, near Lake Tahoe).
  48392. Classes run 9am to 5pm.  
  48393.  
  48394. Accommodations at Best Western Motel in Placerville can be arranged
  48395. through our office.
  48396.  
  48397. Contact:
  48398.                 Applied Parallel Research, Inc., 
  48399.                 550 Main St., Placerville, CA 95667 
  48400.                 
  48401.                 Voice:  916/621-1600.  Fax: -0593.  
  48402.                 Email:  forge@netcom.com
  48403.  
  48404. ==============================================================================
  48405.  
  48406.  
  48407. -- 
  48408.  ///  Applied  ///     FORGE 90 Customer Support Group
  48409.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  48410.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  48411.  
  48412. Approved: parallel@hubcap.clemson.edu
  48413. Follow-up: comp.parallel
  48414. Path: bounce-back
  48415. Newsgroups: comp.parallel
  48416. From: pm@bonito.icase.edu (Mehrotra Piyush)
  48417. Subject: Research Positions at ICASE, Hampton VA
  48418. Date: 14 Dec 1993 18:00:39 GMT
  48419. Organization: ICASE/NASA Langley
  48420.  
  48421.                          Research Positions at ICASE
  48422.  
  48423.  
  48424.          The  Institute  for  Computer   Applications   in   Science   and
  48425.     Engineering   (ICASE)  is  seeking  fresh  PhDs  for  staff  scientist
  48426.     positions in the following areas:
  48427.  
  48428.          a) systems software for parallel computers,
  48429.          b) performance and reliability analysis, and
  48430.          c) parallel numerical algorithms.
  48431.  
  48432.     The principal focus of  the  software  research  effort  at  ICASE  is
  48433.     development   of  tools  and  environments  for  porting  large  scale
  48434.     scientific applications to parallel and distributed systems. The focus
  48435.     of the performance and reliability analysis research is development of
  48436.     algorithms and tools for the study and optimization of performance  of
  48437.     complex computer systems, especially parallel and distributed systems.
  48438.     The focus in parallel numerical  algorithms  is  the  development  and
  48439.     experimental investigation of scalable methods for computational fluid
  48440.     dynamics applications.
  48441.  
  48442.          In the software area  we  are  looking  for  PhDs  interested  in
  48443.     collaborative  research on runtime support systems, on compiler design
  48444.     and  enhancements,  on  tools  for  distribution,  mapping,  and  load
  48445.     balancing, and on tools for performance monitoring and prediction.  In
  48446.     the performance and reliability analysis area we seek PhDs  interested
  48447.     in  tools  and  algorithms  for  high  performance simulation, and for
  48448.     parallel mathematical performance and  relability  analysis.   Current
  48449.     topics  of  interest  in  the algorithms area are multilevel iterative
  48450.     methods, domain decomposition iterative methods, problem decomposition
  48451.     and   parallel   mapping   in   the   presence   of   adaptivity,  and
  48452.     multidisciplinary optimization.
  48453.  
  48454.          Staff scientists appointments are usually  made  for  two  years,
  48455.     with the possibility of a third-year extension.  ICASE is a non-profit
  48456.     research organization located at the NASA Langley Research  Center  in
  48457.     Hampton,  Virginia.   The  institute offers excellent opportunities to
  48458.     computer  science  researchers  for  collaboration  on   complex   and
  48459.     computationally  intensive  problems of interest to NASA.  ICASE staff
  48460.     scientists have access to Langley's 66 processor Intel PARAGON, a Cray
  48461.     Y/MP, and internet access to many other parallel architectures.
  48462.  
  48463.     US citizens/permanent residents will be given *strong* preference.
  48464.  
  48465.     Please send resumes to:
  48466.  
  48467.     Director
  48468.     ICASE, MS 132C
  48469.     NASA Langley Research Center
  48470.     Hampton VA 23681
  48471.  
  48472.     or by e-mail to
  48473.  
  48474.     positions@icase.edu
  48475. -- 
  48476.  
  48477.     - Piyush
  48478.  
  48479. Approved: parallel@hubcap.clemson.edu
  48480. Follow-up: comp.parallel
  48481. Path: bounce-back
  48482. Newsgroups: comp.parallel
  48483. From: pc94@cscs.ch
  48484. Subject: PC94 Second Announcement
  48485. Keywords: High Performance Computing
  48486. Sender: pc94@cscs.ch
  48487. Organization: Centro Svizzero di Calcolo Scientifico, CH-6928 Manno
  48488. Date: Mon, 13 Dec 1993 10:56:38 GMT
  48489.  
  48490. ---------------------------------------------------------------------------
  48491.  
  48492.                                 PC'94
  48493.  
  48494.                         (PHYSICS COMPUTING '94)
  48495.  
  48496.     The 6th Joint EPS-APS International Conference on Physics Computing
  48497.                  Lugano, Switzerland, Palazzo dei Congressi
  48498.                           August 22-26, 1994
  48499.  
  48500.                          (Second Announcement)
  48501.  
  48502. ---------------------------------------------------------------------------
  48503.  
  48504.     Jointly organized by the Swiss Scientific Computing Center
  48505.     (CSCS), Manno, Switzerland, belonging to the Swiss Federal
  48506.     Institute of Technology, Zurich (ETHZ), the EPS Interdisciplinary
  48507.     Group on Computational Physics and by the American Physical
  48508.     Society, Division of Computational Physics.
  48509.  
  48510.     Sponsored by EPS-APS, ETHZ, Computers in Physics, NEC
  48511.  
  48512. Scientific Program
  48513. ---------------------------------------------------------------------------
  48514.     PC'94 will give a detailed overview on the newest research
  48515.     results and developments in computational methodology for
  48516.     academia and industry, including invited papers, contributed
  48517.     papers, poster sessions, tutorials and vendor exhibitions.
  48518.     The purpose of the conference is to bring together researchers
  48519.     interested in innovative approaches in computational physics.
  48520.     Special emphasis will be given to algorithmical and high-
  48521.     performance computer implementation issues. Tutorial
  48522.     sessions organized by leaders in their respective fields will be
  48523.     held on the first conference day.
  48524.  
  48525. Invited Speakers and their presentation topics (August 23-26, 94)
  48526. ---------------------------------------------------------------------------
  48527.     Molecular Dynamics
  48528.        W. Andreoni, IBM Research Centre, Ruschlikon, CH
  48529.        L. Colombo, University of Milan, I
  48530.        V. Stepanyuk, Lomonosov State Univ. Moscow, Russia
  48531.  
  48532.     Physics Education
  48533.        C. Rebbi, Physics Dept., Boston Univ., USA
  48534.  
  48535.     Chaos and Dynamical Systems
  48536.        V. Demmel, MPI fur Extraterrestrische Physik, Garching, D
  48537.  
  48538.     Mesoscopic Physics
  48539.        H. deRaedt, Univ. of Groningen, NL
  48540.        E. Kaxiras, Dept. of Physics,  Harward Univ., USA
  48541.  
  48542.     Electronic Structure of Molecules and Materials
  48543.        L. Ixaru, Inst. of Physics, Univ. of Bucharest,  R
  48544.        You Zhou, Physics Inst., Univ. of Zurich, CH
  48545.  
  48546.     Plasmas
  48547.        U. Schwenn, MPI fur Plasma Physik, Garching, D
  48548.  
  48549.     Fluids and Turbulence
  48550.        T. Poinsot,  CERFACS, Toulouse, F
  48551.        S. Lanteri, Inria, F
  48552.  
  48553.     Climate Modeling
  48554.        J. Hunt, Weather Office, Bracknell, GB
  48555.  
  48556.     Parallel Computation in Physics
  48557.        K. Bowler, Dept. of Physics, Univ. of Edinburgh, GB
  48558.        G. Meurant, CEA, Dept. Mathematiques Appliquees, F
  48559.        M.C.Payne, Dept. of Physics, Univ. of Cambridge, GB
  48560.  
  48561.     Monte Carlo and Critical Phenomena
  48562.        K. Binder, Physics Inst., Johannes Gutenberg-Univ., Mainz, D
  48563.        I. Morgenstern, Physics Inst., Univ. of Regensburg, D
  48564.  
  48565.     Industrial Applications
  48566.        B. Larrouturou  INRIA, Sophia-Antipolis, F
  48567.        P. Sguazzero IBM ECSEC Center, Rome, I
  48568.  
  48569.     Self-Organization and Growth Phenomena
  48570.        M. Peyrard, Faculty of Science, Univ. of Lyon, F
  48571.        J. Kertesz, Bit, Budapest, H
  48572.  
  48573.     Cellular Automata and Lattice Gases
  48574.        B.Chopard, Parallel Computing Group, Univ. of Geneva, CH
  48575.  
  48576.     Numerical Methods
  48577.        I.M.Sobol, Inst. Math. Modelling, Moscow, Russia
  48578.        S. Obara, Dept. of Chemistry, Kyoto Univ., J
  48579.  
  48580. Tutorials (Monday, August 22, 1994)
  48581. ---------------------------------------------------------------------------
  48582.     1    -   Parallel Computation (1 day)
  48583.     2    -   Visualization Tools and Techniques (1 day)
  48584.     3a   -   Introduction to Finite Elements Methods (1/2 day)
  48585.     3b   -   Structured and Unstructured Adaptive Grids (1/2 day)
  48586.     4a   -   Wavelets and Fourier Analysis (1/2 day)
  48587.     4b   -   Electronic Structure Calculations  (1/2 day)
  48588.     5a   -   Introduction to Neural Networks (1/2 day)
  48589.     5b   -   Symbolic Computation (1/2 day)
  48590.  
  48591. Paper Submission (before February 28, 1994)
  48592. ---------------------------------------------------------------------------
  48593.     Original Papers should be limited to 4 pages and submitted
  48594.     before February, 28, 1994. Formatting details will be given in
  48595.     due time. Please submit 4 copies of all materials. Accepted
  48596.     papers will be included as posters or as oral presentations.
  48597.     Papers will only be accepted if at least one of the authors has
  48598.     registered.
  48599.     In contrast with the arrangements at previous conferences in
  48600.     the Physics Computing series, the papers will be printed prior
  48601.     to PC'94 in a proceedings volume, that will be distributed to
  48602.     participants at the beginning of the conference.
  48603.  
  48604. Registration
  48605. ---------------------------------------------------------------------------
  48606.     Registration fee:
  48607.        (1) EPS member and affiliated societies ONLY:
  48608.            I am sending Sfr. 370.- (Sfr. 420.- after May 1994)
  48609.            to the account (*).
  48610.        (2) I am sending Sfr. 400.- (Sfr. 450.- after May 1994)
  48611.            to the account (*).
  48612.        (*) Account:
  48613.            "PC'94" Nr. JE-150.761.0
  48614.            Swiss Bank Corporation (SBS)
  48615.            CH-6982 Agno, Switzerland
  48616.  
  48617.        At the conference there is the possibility to buy daily tickets at
  48618.        Sfr. 200.- /day.
  48619.  
  48620.        The registration fee covers the access to the conference and the
  48621.        proceedings book of the conference. Refund of the registration fee
  48622.        (less 10% administration costs) will only be granted if notification of
  48623.        cancellation has reached the conference secretariat before August 1,
  48624.        1994.
  48625.  
  48626.     Lunches:
  48627.        Sfr. 25.- /day, payable at the conference
  48628.  
  48629.     Tutorials: (Students 50%)
  48630.        Sfr. 200.- /half day
  48631.        Sfr. 300.- /day
  48632.        A tutorial takes place only if at least 10 participants have
  48633.        registered.
  48634.  
  48635. Registration Form
  48636. ------------------------------------------------------ >-8 ----------------
  48637.  
  48638.  Family Name: ____________________________________________________________
  48639.  
  48640.  First Name: _____________________________________________________________
  48641.  
  48642.  Organization: ___________________________________________________________
  48643.  
  48644.  Mailing Address: ________________________________________________________
  48645.  
  48646.  ZIP/City/State  _________________________________________________________
  48647.  
  48648.  Country: ________________________________________________________________
  48649.  
  48650.  Phone: ____________________________ Fax: ________________________________
  48651.  
  48652.  Email: __________________________________________________________________
  48653.  
  48654.  Tutorials:     1 ___ 2 ___  3a ___  3b ___  4a ___  4b ___  5a ___  5b __
  48655.  
  48656.  
  48657.  Date:______________________ Signature:___________________________________
  48658.  
  48659. ---- 8-< -------------------------------------------------------------------
  48660.  
  48661. PC '94 Scientific Advisory Committee
  48662. ---------------------------------------------------------------------------
  48663.     Dr.   Ralf Gruber (chairman)  CSCS, Manno, CH
  48664.     Dr.   Robert Allan            SERC, Daresbury, GB
  48665.     Dr.   David Anderson          Univ. of California, Livermore, USA
  48666.     Prof. Alfonso Baldereschi     EPFL, Lausanne, CH
  48667.     Dr.   Ernesto Bonomi          CSR4, Cagliari, I
  48668.     Prof. Roberto Car             Univ. of Geneva, CH
  48669.     Prof. Robert De Groot         Univ. of Nijemegen, NL
  48670.     Prof. Lev Degtyarev           Keldysh Institute, Moscow, Russia
  48671.     Prof. Geerd Diercksen         Max-Planck-Institut, Gerching bei Munchen, D
  48672.     Prof. Wolfgang Fichtner       ETH Zentrum, Zurich, CH
  48673.     Prof. Roland Glowinski        CERFACS, Toulouse, F
  48674.     Dr.   Frederick James         CERN, Geneva, CH
  48675.     Dr.   Richard Kenway          Edinburgh Univ., GB
  48676.     Prof. Peter Meier             Univ. of Zurich, CH
  48677.     Dr.   Jaroslav Nadrchal       Academy of Sciences, Praha, CZ
  48678.     Prof. Risto Nieminen          Helsinki University, Espoo, Finland
  48679.     Dr.   Elaine Oran             Naval Research Lab., Washington DC, USA
  48680.     Dr.   Jacques Periaux         Dassault Aviation, Saint-Cloud, F
  48681.     Dr.   Adnan Podoleanu         Polytechnical Institute of Bucharest, Russia
  48682.     Dr.   Sauro Succi             IBM ECSEC, Roma, I
  48683.     Dr.   Toshikazu Takada        NEC Corp. Tsukuba, Ibaraki, J
  48684.     Dr.   Marco Tomassini         CSCS, Manno, CH
  48685.     Prof. Tanias Vicsek           Eotvos University, Budapest, H
  48686.  
  48687. Hotel Information
  48688. ---------------------------------------------------------------------------
  48689.     Hotel reservations may be arranged through the Palazzo dei Congressi
  48690.     in Lugano (Tel:  +41/91/21 4774, Fax: +41/91/22 0323).
  48691.     Early registration is advisable in order to arrange proper accommodation.
  48692.  
  48693. Social Programme
  48694. ---------------------------------------------------------------------------
  48695.     A social programme is in preparation. An accompanying person's
  48696.     programme will be organized at the conference.
  48697.  
  48698. Additional Informations
  48699. ---------------------------------------------------------------------------
  48700.     The final program of the conference will be sent in June 1994.
  48701.     Inquiries about the Conference.
  48702.         PC'94
  48703.         Centro Svizzero di Calcolo Scientifico
  48704.         CH-6928 Manno (Switzerland)
  48705.         Tel:    +41/91/508211
  48706.         Fax:    +41/91/506711
  48707.         E-mail: pc94@cscs.ch
  48708.  
  48709. Official Carrier
  48710. ---------------------------------------------------------------------------
  48711.     Swissair
  48712.     Crossair
  48713.  
  48714.  
  48715.  
  48716. Approved: parallel@hubcap.clemson.edu
  48717. Follow-up: comp.parallel
  48718. Path: bounce-back
  48719. Newsgroups: comp.parallel
  48720. From: joel@SSD.intel.com (Joel Clark)
  48721. Subject: Re: asynchronous IO
  48722. Organization: Supercomputer Systems Division (SSD), Intel
  48723. References: <1993Dec14.140641.21142@hubcap.clemson.edu>
  48724. Date: Tue, 14 Dec 1993 18:56:04 GMT
  48725. Apparently-To: comp-parallel@uunet.uu.net
  48726.  
  48727. In article <1993Dec14.140641.21142@hubcap.clemson.edu> mhchoy@ucsb.edu (Manhoi Choy) writes:
  48728. >I am trying to find a standard on message passing interface that supports
  48729. >asynchronous IO. e.g I would like to be able to set up interrupt routines 
  48730. >to handle messages and be able to send out messages asynchronously.
  48731. >Existing tools such as PVM or P4 do not seem to support this. (Correct me
  48732. >if I am wrong.) Is there a reason why asynchronous IO is not supported?
  48733. >Are there anyone trying to include asynchronous IO in their "standard"?
  48734.  
  48735. Email to mhchoy@ucsb.edu bounced off of ucsb.edu so I will post:
  48736.  
  48737. I believe the MPI (Message Passing Interface) includes this.
  48738. I think the listserver at ornl.gov has more info on MPI
  48739. Also there have been articles on comp.parallel and comp.sys.super in the
  48740. last week or two on MPI.  Specifically an annoucement of a European
  48741. conference to review the current proposed MPI standard.
  48742.  
  48743. Intel MPP systems have had asynchronous message passing since the days 
  48744. of the iPSC/2 (1988) (although the asynchronuous interface was frequently
  48745. problematic on the iPSC/860, one customer wrote a complete transation 
  48746. processing interface supporting dozens of users and 60 disks where ever 
  48747. action was a result of an asynchronous message).
  48748.  
  48749. joel
  48750.  
  48751.  
  48752. Approved: parallel@hubcap.clemson.edu
  48753. Follow-up: comp.parallel
  48754. Path: bounce-back
  48755. Newsgroups: comp.parallel
  48756. From: wieckows@peca.cs.umn.edu (Zbigniew Wieckowski)
  48757. Subject: Re: asynchronous IO
  48758. Organization: University of Minnesota, Minneapolis, CSci dept.
  48759. References: <1993Dec14.140641.21142@hubcap.clemson.edu>
  48760.  
  48761. In article <1993Dec14.140641.21142@hubcap.clemson.edu> mhchoy@ucsb.edu (Manhoi Choy) writes:
  48762. >I am trying to find a standard on message passing interface that supports
  48763. >asynchronous IO. e.g I would like to be able to set up interrupt routines 
  48764. >to handle messages and be able to send out messages asynchronously.
  48765. >Existing tools such as PVM or P4 do not seem to support this. (Correct me
  48766. >if I am wrong.) Is there a reason why asynchronous IO is not supported?
  48767. >Are there anyone trying to include asynchronous IO in their "standard"?
  48768.  
  48769. New version of P4 released this summer presumably supports asynchronous I/O.
  48770.  
  48771. This stuff seems to difficult to debug (signals). Messy. People prefer threads.
  48772. Where do you get threads? ???
  48773.  
  48774. Bishak
  48775.  
  48776. -----------------------------------------------------------------------------
  48777. Zbigniew Wieckowski, Department of Computer Science, University of Minnesota,
  48778. 200 Union St. SE, MN 55455, U.S.A., (612)626-7510, e-mail:wieckows@cs.umn.edu
  48779. -----------------------------------------------------------------------------
  48780.          What is mind? No matter. What is matter? Never mind.
  48781. -----------------------------------------------------------------------------
  48782.  
  48783. Approved: parallel@hubcap.clemson.edu
  48784. Follow-up: comp.parallel
  48785. Path: bounce-back
  48786. Newsgroups: comp.parallel,comp.sys.super
  48787. From: jet@nas.nasa.gov (J. Eric Townsend)
  48788. Subject: mailing list info on TMC CM-5, Intel iPSC/860, Intel Paragon
  48789. Organization: NAS/NASA-Ames Research Center
  48790.  
  48791. J. Eric Townsend (jet@nas.nasa.gov)
  48792. last updated: 29 Nov 1993 (updated mailing addresses)
  48793.  
  48794. This file is posted to USENET automatically on the 1st and 15th of
  48795. each month.
  48796.  
  48797. It is mailed to the respective lists to remind users how to
  48798. unsubscribe and set options.
  48799.  
  48800. INTRODUCTION
  48801. ------------
  48802.  
  48803. Several mailing lists exist at NAS for the discussion of using and
  48804. administrating Thinking Machines CM-5  and Intel iPSC/860 parallel
  48805. supercomputers.
  48806.  
  48807. These mailing lists are open to all persons interested in the systems.
  48808.  
  48809. The lists are:
  48810.  
  48811. LIST-NAME               DESCRIPTION
  48812. cm5-managers    --  discussion of administrating the TMC CM-5
  48813. cm5-users       --       "     "   using the TMC CM-5
  48814. ipsc-managers      --       "     "  administrating the Intel iPSC/860
  48815. ipsc-users      --       "     "  using the Intel iPSC/860
  48816. paragon-managers   --       "     "  administrating the Intel Paragon
  48817. paragon-users   --       "     "  using the Intel Paragon
  48818.  
  48819. The ipsc-* lists at cornell are going away, the lists here will
  48820. replace them. (ISUG members will be receiving information on this in
  48821. the near future.)  The cm5-users list is intended to complement the
  48822. lbolt list at MSC.
  48823.  
  48824. SUBSCRIBING/UNSUBSCRIBING
  48825. -------------------------
  48826.  
  48827. All of the above lists are run with the listserv package.  In the
  48828. examples below, substitute the name of the list from the above table
  48829. for the text "LIST-NAME".
  48830.  
  48831. To subscribe to any of the lists, send email to
  48832. listserv@nas.nasa.gov with a *BODY* of
  48833.  
  48834. subscribe LIST-NAME your_full_name
  48835.  
  48836. Please note:
  48837.  - you are subscribed with the address that you sent the email from.
  48838.    You cannot subscribe an address other than your own.  This is
  48839.    considered a security feature, but I haven't gotten around to taking
  48840.    it out.
  48841.  - your subscription will be handled by software, so any other text
  48842.    you send will be ignored
  48843.  
  48844. Unsubscribing
  48845.  
  48846. It is important to understand that you can only unsubscribe from the
  48847. address you subscribed from.  If that is impossible, please contact
  48848. jet@nas.nasa.gov to be unsubscribed by hand.  ONLY DO THIS IF
  48849. FOLLOWING THE INSTRUCTIONS DOES NOT PRODUCE THE DESIRED RESULTS!  I
  48850. have better things to do than manually do things that can be
  48851. automated.
  48852.  
  48853. To unsubscribe from any of the mailing lists, send email to
  48854. listserv@nas.nasa.gov with a body of
  48855.  
  48856. unsubscribe LIST-NAME
  48857.  
  48858. OPTIONS
  48859. -------
  48860. If you wish to receive a list in digest form, send a message
  48861. to listserv@nas.nasa.gov with a body of
  48862.  
  48863. set LIST-NAME mail digest
  48864.  
  48865. OBTAINING ARCHIVES
  48866. ------------------
  48867.  
  48868. There are currently no publicly available archives.  As time goes on,
  48869. archives of the lists will be made available.  Watch this space.
  48870. -- 
  48871. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  48872. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  48873. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  48874. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  48875.  
  48876. Approved: parallel@hubcap.clemson.edu
  48877. Follow-up: comp.parallel
  48878. Path: bounce-back
  48879. Newsgroups: comp.parallel
  48880. From: roland@sics.se (Roland Karlsson)
  48881. Subject: Re: Sequent parallel programming reference needed
  48882. Organization: Swedish Institute of Computer Science, Kista
  48883. References: <hickman.755386004@cwis>
  48884.  
  48885. I got a book from Sequent Sweden some weeks ago.  It is called "Guide
  48886. to Parallel Programming on Sequent Computer Systems - Third Edition".
  48887. Contact some Sequent dealer and I suppose you can get one for free.
  48888.  
  48889. Otherwise, it is printed by PRENTICE HALL, Englewood Cliffs, New
  48890. Jersey 07632 (ISBN 0-13-370777-8).
  48891.  
  48892.  
  48893. --
  48894. Roland Karlsson             SICS, PO Box 1263, S-164 28 KISTA, SWEDEN
  48895. Internet: roland@sics.se    Tel: +46 8 752 15 40          Fax: +46 8 751 72 30
  48896. Telex: 812 6154 7011 SICS   Ttx: 2401-812 6154 7011=SICS
  48897.  
  48898. Approved: parallel@hubcap.clemson.edu
  48899. Follow-up: comp.parallel
  48900. Path: bounce-back
  48901. Newsgroups: comp.parallel
  48902. Path: penttone
  48903. From: penttone@cs.joensuu.fi (Martti Penttonen)
  48904. Subject: school on parallel computing
  48905. Organization: University of Joensuu
  48906. Date: Wed, 15 Dec 1993 13:49:05 GMT
  48907. Apparently-To: comp-parallel@eunet.fi
  48908.  
  48909.  
  48910.  
  48911.                WINTER SCHOOL ON PARALLEL COMPUTING
  48912.             and Finnish symposium on computer science
  48913.  
  48914. The winter school of the Finnish Society for Computer Science 
  48915. is organized in 1994 by the Department of Computer Science of
  48916. the University of Joensuu. The topic of the school is
  48917.             PARALLEL ALGORITHMS AND PARALLEL COMPUTERS
  48918. The program of the school consists of
  48919. * Bill McColl (Oxford): "Parallel algorithms and architectures"
  48920. * Friedelm Meyer auf der Heide (Paderborn): "Simulations of shared
  48921.     memory"
  48922. * Friedemann Mattern (Saarbrucken): "Distributed algorithms"
  48923. six hours each.
  48924.  
  48925. In combination with the winter school, there is a national
  48926.                 CONFERENCE ON COMPUTER SCIENCE
  48927. The program of the conference and the contents of the invited talks 
  48928. follow.
  48929.  
  48930. The time of the school is January 10 to 12, 1994, and place
  48931. Siikasalmi Research Station in Liperi (close to Joensuu), in
  48932. Finland. There is no registration fee, but participants should 
  48933. pay their travel and accommodation. Accommodation at the Research 
  48934. station costs 260 FIM in double room (300 FIM in single room,
  48935. availability limited) for two nights, meals included.
  48936. 1 USD = 5.8 FIM. Participation is welcome, but because of space
  48937. constraints, only a few more participants can be accepted
  48938.  
  48939. For more information, contact
  48940.  
  48941. Martti Penttonen                 Department of Computer Science
  48942. penttonen@cs.joensuu.fi          University of Joensuu
  48943. Tel: +358 73 151 3105            P.O.Box 111                          
  48944. FAX: +358 73 151 3290            80101 Joensuu, Finland
  48945.  
  48946. ========================================================================
  48947.  
  48948. TENTATIVE SCHEDULE
  48949.  
  48950.  
  48951. Monday, January 10, 1994
  48952.  
  48953.  8:00        bus from Hotel Kimmel to Siikasalmi
  48954.  
  48955.  9:00-10:45  Bill McColl: "Parallel algorithms and architectures"
  48956.  
  48957. 11:00-12:00  lunch break
  48958.  
  48959. 12:00-13:45  Meyer auf der Heide: "Simulations of shared memory"  
  48960.  
  48961. 13:35-14:00  coffee break
  48962.  
  48963. 14:00-15:45  Mattern: "Distributed algorithms"
  48964.  
  48965. 16:00-16:20  Juha K{rkk{inen, Esko Ukkonen (University of Helsinki): 
  48966.              Two and higher dimensional pattern matching in optimal 
  48967.              expected time
  48968. 16:20-16:40  Niklas Holsti, Erkki Sutinen (University of Helsinki): 
  48969.              Approximate string matching using q-gram places
  48970. 16:40-17:00  Erkki Sutinen (University of Helsinki): On average-case 
  48971.              behaviour of the q-gram method 
  48972. 17:00-17:20  Tomi Janhunen (Helsinki University of Technology): Cautious 
  48973.              autoepistemic reasoning applied to general logic programs
  48974. 17:20-17:40  Jussi Rintanen (Helsinki University of Technology): 
  48975.              Approaches to priorities in default reasoning
  48976. 17:40-18:00  Kari Gran| (Nokia Research Center), Jukka Paakki (University
  48977.              of Jyv{skyl{): Specifying communication protocols in PPL
  48978.  
  48979. 18:00-19:00  dinner
  48980.  
  48981.  
  48982. Tuesday, January 11
  48983.  
  48984.  8:00- 9:00  breakfast
  48985.  
  48986.  9:00-10:45  Bill McColl: "Parallel algorithms and architectures"
  48987.  
  48988. 11:00-12:00  lunch break
  48989.  
  48990. 12:00-13:45  Meyer auf der Heide: "Simulations of shared memory"  
  48991.  
  48992. 13:35-14:00  coffee break
  48993.  
  48994. 14:00-15:45  Mattern: "Distributed algorithms"
  48995.  
  48996. 16:00-16:20  Ville Lepp{nen (University of Turku), Martti Penttonen 
  48997.              (University of Joensuu): Work-optimal simulation of 
  48998.              PRAM models on meshes
  48999. 16:20-16:40  Simo Juvaste (University of Joensuu): A note on simulating 
  49000.              PRAMs by sparse microprocessor networks
  49001. 16:40-17:00  Juha Hakkarainen (University of Joensuu): Distributed 
  49002.              knowledge representation in sparse distributed memory
  49003. 17:00-17:20  Jyrki Katajainen (University of Copenhagen), Tomi Pasanen, 
  49004.              Jukka Teuhola (University of Turku): In-place mergesort
  49005. 17:20-17:40  Heikki K{lvi{inen (Lappeenranta University of Technology): 
  49006.              Randomized Hough transform (RHT): New extensions to line 
  49007.              detection
  49008. 17:40-18:00  Merja Wanne (University of Wasa): On constructing area 
  49009.              unions in computer cartography
  49010.  
  49011. 18:00-19:00  dinner
  49012.  
  49013.  
  49014. Wednesday, January 12
  49015.  
  49016.  8:00- 9:00  breakfast
  49017.  
  49018.  9:00-10:45  Bill McColl: "Parallel algorithms and architectures"
  49019.  
  49020. 11:00-12:00  lunch break
  49021.  
  49022. 12:00-13:45  Meyer auf der Heide: "Simulations of shared memory"  
  49023.  
  49024. 13:35-14:00  coffee break
  49025.  
  49026. 14:00-15:30  Mattern: "Distributed algorithms"
  49027.  
  49028. 15:30        bus to railway station and Hotel Kimmel
  49029.  
  49030.  
  49031. ========================================================================
  49032.  
  49033. CONTENTS OF THE LECTURES
  49034.  
  49035.  
  49036. Bill McColl:
  49037. "Parallel Algorithms and Architectures".
  49038.  
  49039. Lecture 1. Fast Parallel Boolean Circuits.
  49040. Prefix sums, n-bit addition, n-bit multiplication.
  49041.  
  49042. Lecture 2. Fast Parallel Comparison Networks.
  49043. Merging, sorting, selection.
  49044.  
  49045. Lecture 3. Systolic Algorithms and Architectures.
  49046. Matrix multiplication, LU decomposition, algebraic path problem.
  49047.  
  49048. Lecture 4. Interconnection Networks and Routing.  
  49049. Basic network properties: degree, diameter, bisection width, area. Routing
  49050. h-relations.  Fault tolerance and expanders. Optical communication.
  49051.  
  49052. Lecture 5. The BSP Model.
  49053. Basic properties. Simple BSP algorithm for matrix multiplication.
  49054.  
  49055. Lecture 6. Design and Analysis of BSP Algorithms.
  49056. BSP complexity theory. An optimal BSP algorithm for matrix multiplication.
  49057. BSP algorithms for LU decomposition, solution of a triangular linear system.
  49058.  
  49059. -----------------------------------------------------------------------
  49060.  
  49061. Friedhelm Meyer auf der Heide:
  49062. "Simulations of Shared Memory"
  49063.  
  49064. Lecture I: Routing, Hashing and Basic Simulations 
  49065.  
  49066. Lecture II: Fast Simulations with Redundant Memory Representation 
  49067.  
  49068. Lecture III: Dictionaries and Time-Processor Optimal Simulations 
  49069.  
  49070.  
  49071. Lecture I.
  49072. We consider hashing strategies for simulating shared memory, i.e. for
  49073. simulations of PRAM on a distributed memory machine, DMMs. A DMM
  49074. consists of n processors and $n$ memory modules, connected by a
  49075. router. The access to memory modules is restricted in so far that only
  49076. one request to a module can be processed in unit time.  We present
  49077. shared memory simulations based on the method to distributed the
  49078. shared memory among the modules using a hash function drawn from a
  49079. universal class of hash functions. For this purpose we describe high
  49080. performance universal classes of hash functions and fast routers to
  49081. achieve simulations with expected delay O(log (n)).
  49082.  
  49083. Lecture II.
  49084. We consider several simulation techniques which use redundant memory
  49085. representation, i.e. simulate each shared memory cell in several
  49086. modules. The DMM now is supposed to have a perfect router. We present
  49087. a deterministic simulation as well as randomized simulations. The
  49088. latter has expected delay O(log log (n)) only, and runs on a
  49089. restricted version of DMMs based on optical crossbar communication.
  49090.  
  49091. Lecture III.
  49092. Based on techniques from the previous lectures we now look for
  49093. time-processor optimal simulations, i.e. Simulations of nt-processor
  49094. PRAMs on n-processor DMM with expected delay O(t).  For this purpose
  49095. we describe techniques to maintain a parallel dictionary (i.e. date
  49096. structure that supports parallel insertions, deletions and look ups)
  49097. on a DMM. The slackness parameter t can be chosen as log (n), and even
  49098. as small as log log (n) log* (n) for more involved simulations.
  49099.  
  49100. ----------------------------------------------------------------------
  49101.  
  49102. Friedemann Mattern
  49103. Distributed Algorithms
  49104.  
  49105. In distributed systems, where processes communicate solely by messages,
  49106. no process has complete and up to date knowledge of the global state.
  49107. Hence, control problems such as detection of objects which are no
  49108. longer accessible (i.e., garbage objects) or determination of a
  49109. causally consistent view of the global system state are more difficult
  49110. to solve in a distributed environment than in sequential systems.
  49111.  
  49112. Another prominent example is termination detection.  A distributed
  49113. computation is terminated when all processes are passive and no message
  49114. is in transit. However, since a passive process may be reactivated when
  49115. a message is received, and since in general it is impossible to inspect
  49116. all processes at the same time, the detection of termination of a
  49117. distributed computation is non-trivial.  Distributed termination
  49118. detection is a "prototype problem"; research on it has contributed much
  49119. to the entire field of distributed algorithms.  It is closely connected
  49120. to other important problems such as determining a causally consistent
  49121. global state, approximating a distributed monotonic function (e.g.,
  49122. Global Virtual Time in distributed simulations), or distributed garbage
  49123. collection. We explain these problems, discuss their importance, and
  49124. show how they are related to each other and how solutions to these
  49125. problems can be obtained from generalizing solutions to the termination
  49126. detection problem.
  49127.  
  49128. We also give a short introduction into the concept of virtual time
  49129. logical clocks, in particular so-called vector clocks which represent
  49130. the causality structure of distributed computations in an isomorphic
  49131. way. We then show how this non-standard model of time is in close
  49132. analogy to Minkowski's relativistic spacetime. (Among other things
  49133. light cones and the causality preserving Lorentz transformations have
  49134. their counterparts in distributed computations.) We introduce observers
  49135. as linear sequences of events and show how faithful (i.e., causally
  49136. consistent) observers can be implemented using vector clocks. Existing
  49137. in a relativistic world, different faithful observers may perceive the
  49138. same distributed computation differently. This fact induces interesting
  49139. and non-trivial problems for detecting the truth of global predicates
  49140. and for monitoring or debugging distributed systems.
  49141.  
  49142. The topics we discuss are important from a practical as well as from a
  49143. theoretical point of view. For example, distributed garbage collection
  49144. algorithms are gaining much interest because of current efforts to
  49145. efficiently implement object-oriented languages on parallel distributed
  49146. memory machines.  Also, obtaining a causally consistent image of a
  49147. distributed computation without freezing it is important for debugging
  49148. and monitoring purposes. On the other hand, the problem of detecting a
  49149. global property of a distributed system has contributed much to a
  49150. better understanding of fundamental concepts and theoretical aspects of
  49151. distributed computations.
  49152.  
  49153. ========================================================================
  49154.  
  49155. -- 
  49156.  
  49157.  
  49158. ---------------------------------------------------------------------
  49159. Martti Penttonen                     Department of Computer Science
  49160.  
  49161. Approved: parallel@hubcap.clemson.edu
  49162. Follow-up: comp.parallel
  49163. Path: bounce-back
  49164. Newsgroups: comp.parallel
  49165. From: Ralf.Wirth@arbi.informatik.uni-oldenburg.de (Ralf Wirth)
  49166. Subject: Status of Suprenum Project
  49167. Organization: University of Oldenburg, Germany
  49168. Date: Wed, 15 Dec 1993 14:43:51 GMT
  49169.  
  49170. Hi there!
  49171.  
  49172. Does anybody know the current state of the SUPRENUM-Project? Was it really
  49173. cancelled? Also, do you know the costs of the project? 
  49174.  
  49175. I am interested in data about the SUPERB Fortran Parallizer for that machine.
  49176. Are there any news about it after the Paper "Superb: Experiences and
  49177. Future Research", 1992, or may it be cancelled as well?
  49178.  
  49179. Thanks in advance. CU. Ralf.
  49180.  
  49181.  
  49182. -- 
  49183. *****************************************************************************
  49184. *                                                                           *
  49185. * Name: Ralf Wirth                                                          *
  49186. * Job : Student of computer science/Wizard of Nightfall (Veltins).          *
  49187. * Login : Henry@Aragorn, Henry@Schrottpollo                                 *
  49188. * E-Mail Address: Ralf.Wirth@arbi.informatik.uni-oldenburg.de               *
  49189. * ------------------------------------------------------------------------- *
  49190. * No, I'm not related to him.                                               *
  49191. *****************************************************************************
  49192.  
  49193. Approved: parallel@hubcap.clemson.edu
  49194. Follow-up: comp.parallel
  49195. Path: bounce-back
  49196. Newsgroups: comp.parallel
  49197. From: igl@ecs.soton.ac.uk (Ian Glendinning)
  49198. Subject: Re: asynchronous IO
  49199. Date: 15 Dec 93 16:10:31 GMT
  49200. Organization: Electronics and Computer Science, University of Southampton
  49201. References: <1993Dec14.140641.21142@hubcap.clemson.edu> <1993Dec15.144124.27510@hubcap.clemson.edu>
  49202.  
  49203. In <1993Dec15.144124.27510@hubcap.clemson.edu> joel@SSD.intel.com (Joel Clark) writes:
  49204.  
  49205. >In article <1993Dec14.140641.21142@hubcap.clemson.edu> mhchoy@ucsb.edu (Manhoi Choy) writes:
  49206. >>I am trying to find a standard on message passing interface that supports
  49207. >>asynchronous IO. e.g I would like to be able to set up interrupt routines 
  49208. >>to handle messages and be able to send out messages asynchronously.
  49209. >>Existing tools such as PVM or P4 do not seem to support this. (Correct me
  49210. >>if I am wrong.) Is there a reason why asynchronous IO is not supported?
  49211. >>Are there anyone trying to include asynchronous IO in their "standard"?
  49212.  
  49213. >Email to mhchoy@ucsb.edu bounced off of ucsb.edu so I will post:
  49214.  
  49215. >I believe the MPI (Message Passing Interface) includes this.
  49216.  
  49217. If you mean asynchronous send/receive of messages, then yes, MPI does
  49218. support it.  MPI does not however say anything about parallel file I/O.
  49219.  
  49220. >I think the listserver at ornl.gov has more info on MPI
  49221.  
  49222. Send "send index from mpi" to netlib@ornl.gov for more information.
  49223.  
  49224. >Also there have been articles on comp.parallel and comp.sys.super in the
  49225. >last week or two on MPI.  Specifically an annoucement of a European
  49226. >conference to review the current proposed MPI standard.
  49227.  
  49228. For more information about the meeting, which will be held January 17-18
  49229. at INRIA, Sophia Antipolis, France, contact mpi-ws@pallas-gmbh.de.
  49230.    Ian
  49231. --
  49232. I.Glendinning@ecs.soton.ac.uk        Ian Glendinning
  49233. Tel: +44 703 593368                  Dept of Electronics and Computer Science
  49234. Fax: +44 703 593045                  University of Southampton SO9 5NH England
  49235.  
  49236. Approved: parallel@hubcap.clemson.edu
  49237. Newsgroups: comp.parallel
  49238. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  49239. Subject: No posting tomorrow.
  49240.  
  49241. One of my offspring graduates tomorrow! Will try to post on Friday.
  49242.  
  49243. =========================== MODERATOR ==============================
  49244. Steve Stevenson                            fpst@hubcap.clemson.edu
  49245. Administrative address                     steve@hubcap.clemson.edu
  49246. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  49247. Wanted: Sterbenz, P. Floating Point Computation
  49248.  
  49249. Approved: parallel@hubcap.clemson.edu
  49250. Follow-up: comp.parallel
  49251. Path: bounce-back
  49252. Newsgroups: comp.parallel
  49253. To: comp-parallel@uunet.UU.NET
  49254. Path: hilbert!george
  49255. From: george@hilbert.coe.northeastern.edu (George Kechriotis)
  49256. Newsgroups: Comp.parallel
  49257. Subject: mesh transpose anyone?
  49258. Organization: CDSP Computing Lab, Northeastern University
  49259.  
  49260. Hi, my problrm is as follows:
  49261. A 2D matrix is stored columnwise in a
  49262. number of processors arranged in a mesh
  49263. topology. Each processor stores some of
  49264. the column of the data array. I would
  49265. like to do a transposition of this
  49266. array, i.e each of the processors should
  49267. store  some of the rows of the matrix...
  49268. I know of efficient algorithms for the hypercube
  49269. but what happens on the mesh?
  49270.  
  49271. [The question could be rephrased as:
  49272. iPSC/860 vs. Paragon? ]
  49273.  
  49274.  
  49275. thanks in advance
  49276.  
  49277.  
  49278. george
  49279.  
  49280.  
  49281.  
  49282.  
  49283. Approved: parallel@hubcap.clemson.edu
  49284. Follow-up: comp.parallel
  49285. Path: bounce-back
  49286. From: cel@theory.lcs.mit.edu (Charles E. Leiserson)
  49287. Newsgroups: comp.parallel,comp.arch,comp.theory
  49288. Subject: SPAA'94 Call for Papers -- Deadline Jan. 21, 1994
  49289. Date: 15 Dec 93 13:53:26
  49290. Organization: MIT Lab for Computer Science
  49291. Nntp-Posting-Host: larry.lcs.mit.edu
  49292.  
  49293.  
  49294.                SPAA'94 CALL FOR PAPERS
  49295.  
  49296.             Sixth Annual ACM Symposium on
  49297.         PARALLEL ALGORITHMS AND ARCHITECTURES
  49298.  
  49299.                JUNE 27-29, 1994
  49300.              Cape May, New Jersey
  49301.  
  49302.  
  49303. The Sixth Annual ACM Symposium on Parallel Algorithms and
  49304. Architectures (SPAA'94) will be held in Cape May, New Jersey, on June
  49305. 27-29, 1994.  It is sponsored by the ACM Special Interest Groups for
  49306. Automata and Computability Theory (SIGACT) and Computer Architecture
  49307. (SIGARCH) and organized in cooperation with the European Association
  49308. for Theoretical Computer Science (EATCS).
  49309.  
  49310. CONTRIBUTED PAPERS: Contributed papers are sought that present
  49311. original, fundamental advances in parallel algorithms and
  49312. architectures, whether analytical or experimental, theoretical or
  49313. practical.  A major goal of SPAA is to foster communication and
  49314. cooperation among the diverse communities involved in parallel
  49315. algorithms and architectures, including those involved in operating
  49316. systems, languages, and applications.  The Symposium especially
  49317. encourages contributed papers that offer novel architectural
  49318. mechanisms or conceptual advances in parallel architectures,
  49319. algorithmic work that exploits or embodies architectural features of
  49320. parallel machines, and software or applications that emphasize
  49321. architectural or algorithmic ideas.
  49322.  
  49323. VENDOR PRESENTATIONS:  As in previous years, the Symposium
  49324. will devote a subset of the presentations to technical material
  49325. describing commercially available systems.  Papers are solicited
  49326. describing concepts, implementations or performance of commercially
  49327. available parallel computers, routers, or software packages containing
  49328. novel algorithms.  Papers should not be sales literature, but rather
  49329. research-quality descriptions of production or prototype systems.
  49330. Papers that address the interaction between architecture and
  49331. algorithms are especially encouraged.
  49332.  
  49333. SUBMISSIONS: Authors are invited to send draft papers to:
  49334.     Charles E. Leiserson, SPAA'94 Program Chair
  49335.     MIT Laboratory for Computer Science
  49336.     545 Technology Square
  49337.     Cambridge, MA  02139
  49338.     USA
  49339. The deadline for submissions is JANUARY 21, 1994.  Simultaneous
  49340. submission of the same research to SPAA and to another conference with
  49341. proceedings is not allowed.  Inquiries should be addressed to Ms.
  49342. Cheryl Patton (phone: 617-253-2322; fax: 617-253-0415; e-mail:
  49343. cap@mit.edu).
  49344.  
  49345. FORMAT FOR SUBMISSIONS: Authors should submit 15 double-sided copies
  49346. of a draft paper.  The cover page should include (1) title, (2)
  49347. authors and affiliation, (3) e-mail address of the contact author, and
  49348. (4) a brief abstract describing the work.  If the paper is to be
  49349. considered as a vendor presentation, the words ``Vendor Presentation''
  49350. should appear at the top of the cover page.  A technical exposition
  49351. should follow on subsequent pages, and should include a comparison
  49352. with previous work.  The technical exposition should be directed
  49353. toward a specialist, but it should include an introduction
  49354. understandable to a nonspecialist that describes the problem studied
  49355. and the results achieved, focusing on the important ideas and their
  49356. significance.  The draft paper--excluding cover page, figures, and
  49357. references--should not exceed 10 printed pages in 11-point type or
  49358. larger.  More details may be supplied in a clearly marked appendix
  49359. which may be read at the discretion of the Program Committee.  Any
  49360. paper deviating significantly from these guidelines--or which is not
  49361. received by the January 21, 1994 deadline--risks rejection without
  49362. consideration of its merits.
  49363.  
  49364. ACCEPTANCE: Authors will be notified of acceptance or rejection by a
  49365. letter mailed by March 15, 1994.  A final copy of each accepted paper,
  49366. prepared according to ACM guidelines, must be received by the Program
  49367. Chair by April 8, 1994.  It is expected that every accepted paper will
  49368. be presented at the Symposium, which features no parallel sessions.
  49369.  
  49370. CONFERENCE CHAIR: 
  49371.     Lawrence Snyder, U. Washington.
  49372.  
  49373. LOCAL ARRANGEMENTS CHAIR: 
  49374.     Satish Rao and Yu-dauh Lyuu, NEC Research Institute.
  49375.  
  49376. PROGRAM COMMITTEE:
  49377.     Gianfranco Bilardi (U. Padova, Italy),
  49378.     Tom Blank (MasPar),
  49379.     Guy Blelloch (Carnegie Mellon),
  49380.     David Culler (U. California, Berkeley),
  49381.     Robert Cypher (IBM, Almaden),
  49382.     Steve Frank (Kendall Square Research),
  49383.     Torben Hagerup (Max Planck Institute, Germany),
  49384.     Charles E. Leiserson, Chairman (MIT),
  49385.     Trevor N. Mudge (U. Michigan, Ann Arbor),
  49386.     Cynthia A. Phillips (Sandia National Laboratories),
  49387.     Steve Oberlin (Cray Research),
  49388.     C. Gregory Plaxton (U. Texas, Austin),
  49389.     Rob Schreiber (RIACS).
  49390.  
  49391.  
  49392.  
  49393.  
  49394. --
  49395. Cheers,
  49396. Charles
  49397.  
  49398. Approved: parallel@hubcap.clemson.edu
  49399. Follow-up: comp.parallel
  49400. Path: bounce-back
  49401. Newsgroups: comp.parallel
  49402. Newsgroups: comp.parallel
  49403. From: ariasmig@gel.ulaval.ca (Miguel Arias)
  49404. Subject: Help: Computational Sensors for Vision
  49405. Reply-To: ariasmig@gel.ulaval.ca
  49406. Organization: Dept. Genie Electrique, Universite Laval
  49407.  
  49408. Hello,
  49409.  
  49410.   I am searching for any information regarding VLSI sensors for 
  49411. computer/robot vision with processing capabilities. I am very 
  49412. interested in references of:
  49413.  
  49414.    -Computational sensors  
  49415.    -CMOS/BiCMOS image sensors with processing capabilities
  49416.    -Integrated focal plane processors
  49417.    -3D Sensors / rangefinders
  49418.    -Low level parallel processing for vision tasks
  49419.    -Other specialized imagers (motion, log-polar mapping, sub-
  49420.     pixel interpolation, etc.)
  49421.    -Specialized cameras with processing capabilities (edge extrac-
  49422.     tion, motion computation, image transformation).
  49423.  
  49424.  
  49425. Please reply to my e-mail address, I'll post a summary.
  49426.  
  49427. Thanks in advance.
  49428.  
  49429.  
  49430.     Miguel Arias
  49431.  
  49432.     e-mail: ariasmig@gel.ulaval.ca
  49433.  
  49434.  
  49435.  
  49436.  
  49437.  
  49438. Approved: parallel@hubcap.clemson.edu
  49439. Follow-up: comp.parallel
  49440. Path: bounce-back
  49441. Newsgroups: comp.parallel
  49442. From: tanner@nas.nasa.gov (Leigh Ann Tanner)
  49443. Subject: Re: Intel Supercomputer Users' Group Meeting
  49444. Sender: news@nas.nasa.gov (News Administrator)
  49445. Nntp-Posting-Host: sundog.nas.nasa.gov
  49446. Organization: NAS/NASA-Ames Research Center
  49447. References:  <1993Dec14.140827.21582@hubcap.clemson.edu>
  49448. Date: Wed, 15 Dec 1993 20:21:53 GMT
  49449. Apparently-To: comp-parallel@ames.arc.nasa.gov
  49450.  
  49451. In article <1993Dec14.140827.21582@hubcap.clemson.edu>, tanner@nas.nasa.gov (Leigh Ann Tanner) writes:
  49452. |> Mark Your Calendars!!
  49453. |> 
  49454. |> The Intel Supercomputer Users' Group Meeting will be
  49455. |> held January 26-29, 1994 in San Diego, California. 
  49456. |> 
  49457.  
  49458. Yes, I need a vacation!!!  The dates are June 26-29 NOT
  49459. January 26-29...
  49460.  
  49461. Leigh Ann
  49462.  
  49463.  
  49464. Approved: parallel@hubcap.clemson.edu
  49465. Follow-up: comp.parallel
  49466. Path: bounce-back
  49467. Newsgroups: comp.parallel
  49468. From: harri906@crow.csrv.uidaho.edu (Harrington)
  49469. Subject: Paralell Network
  49470. Date: 16 Dec 1993 03:01:47 GMT
  49471. Organization: University of Idaho, Moscow, Idaho
  49472. Nntp-Posting-Host: crow.csrv.uidaho.edu
  49473. X-Newsreader: TIN [version 1.1 PL8]
  49474.  
  49475. Anyone know of a good paralell network for two pc's?  I need one badly!
  49476. Thanks, Merry Christmas
  49477. Dan Harrington
  49478.  
  49479. Approved: parallel@hubcap.clemson.edu
  49480. Follow-up: comp.parallel
  49481. Path: bounce-back
  49482. Newsgroups: comp.parallel
  49483. Date: 16 Dec 1993 12:08:48 GMT
  49484. From: jim@meiko.co.uk (James Cownie)
  49485. Subject: Re: asynchronous IO (message passing)
  49486. Reply-To: jim@meiko.co.uk
  49487. Organization: Meiko World.
  49488. References: <1993Dec15.144124.27510@hubcap.clemson.edu>
  49489.  
  49490. In article <1993Dec14.140641.21142@hubcap.clemson.edu> mhchoy@ucsb.edu (Manhoi Choy) writes:
  49491. >I am trying to find a standard on message passing interface that supports
  49492. >asynchronous IO. e.g I would like to be able to set up interrupt routines 
  49493. >to handle messages and be able to send out messages asynchronously.
  49494. >Existing tools such as PVM or P4 do not seem to support this. (Correct me
  49495. >if I am wrong.) Is there a reason why asynchronous IO is not supported?
  49496. >Are there anyone trying to include asynchronous IO in their "standard"?
  49497.  
  49498. You should carefully distinguish between 
  49499.  
  49500. 1) asynchronous (or non-blocking) message passing, in which you can start
  49501.    a message passing op (send or receive) and then later test or wait
  49502.    for its completion
  49503.  
  49504. and
  49505.  
  49506. 2) interrupt or signal driven message passing (probably only useful for a
  49507.    receive !) in which receipt of a particular message forces execution 
  49508.    of a routine asynchronously to the execution of the users code.
  49509.  
  49510. MPI fully supports 1, and provides no support for 2.
  49511.  
  49512. There are many reasons not to support the interrupt style 
  49513. including :-
  49514.  
  49515. 1) It's a horrible way to write code. It's like writing big
  49516.     chunks of stuff in signal handlers...
  49517. 2) It's hard to implement (and in particular to get right !)
  49518. 3) It's hard to specify (e.g. Can you communicate from within
  49519.    the message handler ? Can you probe for other messages here ?
  49520.    etc...) 
  49521. 4) all the other things I can't remember at the moment !
  49522.  
  49523.  
  49524. -- Jim
  49525.  
  49526. ---
  49527. James Cownie 
  49528. Meiko Limited            Meiko Inc.
  49529. 650 Aztec West            Reservoir Place
  49530. Bristol BS12 4SD        1601 Trapelo Road
  49531. England                Waltham
  49532. Approved: parallel@hubcap.clemson.edu
  49533. Follow-up: comp.parallel
  49534. Path: bounce-back
  49535. Newsgroups: comp.parallel
  49536. From: ostr@acs3.bu.edu (boris ostrovsky)
  49537. Subject: Threads package
  49538. Date: 16 Dec 1993 17:25:28 GMT
  49539. Organization: Boston University, Boston, MA, USA
  49540. Nntp-Posting-Host: acs3.bu.edu
  49541. Originator: ostr@acs3.bu.edu
  49542.  
  49543.  
  49544.  
  49545. Hello,
  49546.  
  49547. Could anyone help me finding a public domain threads package?
  49548. It should preferably be able to run on RS/6000, SGI and SUN4.
  49549.  
  49550.                     Thanks,
  49551.                     Boris
  49552.  
  49553.  
  49554.  
  49555. Approved: parallel@hubcap.clemson.edu
  49556. Follow-up: comp.parallel
  49557. Path: bounce-back
  49558. Newsgroups: sci.math.num-analysis,comp.parallel
  49559. From: Herman.te.Riele@cwi.nl (Herman te Riele)
  49560. Subject: Massively Parallel Computing and Applics, Call for Abstracts
  49561. Sender: news@cwi.nl (The Daily Dross)
  49562. Nntp-Posting-Host: steur.cwi.nl
  49563. Organization: CWI, Amsterdam
  49564. Date: Thu, 16 Dec 1993 17:43:43 GMT
  49565. Apparently-To: comp-parallel@NL.net
  49566.  
  49567.  
  49568. CWI - RUU SYMPOSIA ON MASSIVELY PARALLEL COMPUTING AND APPLICATIONS
  49569.  
  49570. CALL FOR ABSTRACTS 
  49571.  
  49572. In 1993 - 1994, CWI (Centre for Mathematics and Computer Science Amsterdam) 
  49573. and RUU (University of Utrecht) are organising a series of Symposia on 
  49574. Massively Parallel Computing and Applications. 
  49575.  
  49576. As far as the computing part is concerned, we are interested in 
  49577. contributions on the optimization and analysis of generic numerical 
  49578. algorithms on massively parallel computers. In particular, we think of 
  49579. iterative methods for solving large sparse linear systems of equations 
  49580. and for finding eigenvalues and eigenvectors of large sparse linear systems, 
  49581. multigrid methods for various types of PDEs, parallel methods for the solution 
  49582. of ordinary differential equation, software tools for parallelization, etc.  
  49583.  
  49584. On the applications side, we seek contributions in fields where optimization 
  49585. and analysis of numeric and nonnumeric algorithms for massively parallel 
  49586. computers are instrumental for real progress. In particular, we think of 
  49587. environmental problems, number theory and cryptography, multiple-particle 
  49588. systems, chemical reactions, computational fluid dynamics, seismic problems etc.
  49589.  
  49590. The following advisory board will assist in the selection of the 
  49591. Symposium programs:
  49592.  
  49593. P. Aerts, Dutch National Computing Facilities Foundation NCF
  49594. O. Axelsson, Catholic University Nijmegen 
  49595. L.O. Hertzberger, University of Amsterdam 
  49596. P.A.J. Hilbers, Royal Shell Laboratory Amsterdam 
  49597. P.J. van der Houwen, CWI and University of Amsterdam  
  49598. W. Loeve, National Aerospace Laboratory NLR
  49599. N. Petkov, University of Groningen
  49600. M. Rem, Technical University Eindhoven 
  49601. J.G. Verwer, CWI
  49602. H. Wijshoff, University of Leiden 
  49603. P. De Wilde, Technical University Delft
  49604.  
  49605. We intend to organise bi-monthly one-day meetings each of which will 
  49606. be centred around a class of numerical algorithms or around a coherent 
  49607. applications field.
  49608. The first three meetings took place in 1993 and were devoted to: 
  49609.  
  49610. "Topics in environmental mathematics"          (June   4, 1993), 
  49611. "Parallel numerical algorithms"                (Sept. 24, 1993),
  49612. "Computational number theory and cryptography" (Nov.  26, 1993).
  49613.  
  49614. The next three meetings are scheduled in the first half of 1994, namely,
  49615.  
  49616. Febr.  4, 1994, 
  49617. March 25, 1994,
  49618. June   3, 1994.
  49619.  
  49620. Refereed proceedings will be published.
  49621.  
  49622. Abstracts of possible contributions are solicited now. Please send an 
  49623. abstract to Herman J.J. te Riele, CWI, Kruislaan 413, 1098 SJ  Amsterdam, 
  49624. The Netherlands (email: herman@cwi.nl) and indicate your preference, 
  49625. if any, for one of the above three dates. 
  49626. The deadline for submission of abstracts is Jan. 14, 1994.
  49627. Notification of acceptance for the first meeting will be sent by 
  49628. Jan. 21, 1994.  and for the two subsequent meetings by Febr. 25, 1994.
  49629. A limited budget is available for contributors from abroad to partially 
  49630. cover travel and lodging expenses.
  49631.  
  49632. The organisers:
  49633. H.J.J. te Riele (CWI)
  49634. H.A. v.d. Vorst (RUU and CWI)
  49635.  
  49636.  
  49637.  
  49638. Approved: parallel@hubcap.clemson.edu
  49639. Follow-up: comp.parallel
  49640. Path: bounce-back
  49641. Newsgroups: comp.parallel
  49642. From: bduncan@netcom.com (Bill Duncan)
  49643. Subject: Experinces w/ Navigation Server (Sybase)?
  49644. Keywords: sybase navigation parallel database
  49645. Sender: netnews@netcom.com (USENET Administration)
  49646. Reply-To: bduncan@netcom.com (Bill Duncan)
  49647. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  49648. X-Newsreader: InterCon TCP/Connect II 1.2
  49649. Date: Wed, 15 Dec 1993 10:34:25 GMT
  49650. Apparently-To: comp-parallel@uunet.uu.net
  49651.  
  49652. I'm interested in anyone who has had experience with Sybase's Navigation 
  49653. Server.  We are a currently looking into Sybase as a database solution and 
  49654. are also interested in each db vendor's strategy in the parallel hw arena.  
  49655. Since Navigation Server is Sybase's proposed solution in this area, we've 
  49656. come to need some insight?
  49657.  
  49658. Can anyone shed some light on this product?
  49659.  
  49660. Bill
  49661.  
  49662.  
  49663.  
  49664.  
  49665.  
  49666.  
  49667. Approved: parallel@hubcap.clemson.edu
  49668. Follow-up: comp.parallel
  49669. Path: bounce-back
  49670. Newsgroups: comp.parallel
  49671. From: scp@doneyet.acl.lanl.gov (Stephen C. Pope)
  49672. Subject: Announcement: CM International User Group Meeting
  49673. Message-ID: <SCP.93Dec16140343@doneyet.acl.lanl.gov>
  49674. Sender: news@newshost.lanl.gov
  49675. Reply-To: <cm-users@acl.lanl.gov>
  49676. Organization: /users/scp/.organization
  49677. Date: Thu, 16 Dec 1993 21:03:41 GMT
  49678.  
  49679.  
  49680. Attached please find a preliminary agenda and a registration form for
  49681. the first Connection Machine International User Group Meeting.  This
  49682. meeting is being organized by Thinking Machines and Los Alamos National
  49683. Laboratory and is open to all.
  49684.  
  49685. To facilitate further mailings, please return an email copy of the
  49686. registration form to: cm-users@acl.lanl.gov
  49687.  
  49688. Non-LANL attendees must also send a hardcopy registration form along
  49689. with payment.
  49690.  
  49691. If you have questions, please do not hesitate to contact us at
  49692. cm-users@acl.lanl.gov.  We look forward to seeing you in Santa Fe!
  49693.  
  49694.  
  49695.  
  49696.         CM International User Group Meeting
  49697.             February 16-18, 1994
  49698.            Eldorado Hotel, Santa Fe, NM
  49699.  
  49700.                        PRELIMINARY AGENDA
  49701.  
  49702. Please note that this is a preliminary agenda and is subject to change.
  49703.  
  49704. Tuesday February 15, 1994
  49705.  
  49706. 6:00pm  -  9:30pm    Registration and Reception, Eldorado Hotel
  49707.  
  49708.  
  49709. Wednesday February 16, 1994
  49710.  
  49711. 7:30am  -  5:00pm    Registration
  49712.  
  49713. 9:00am  - 10:00am    Welcome and Keynote Speech
  49714.  
  49715.                          Richard Fishman, President, Thinking Machines
  49716.  
  49717. 10:00am - 10:30am    Break
  49718.  
  49719. 10:30am - 12:00pm    Invited Talks:  Scientific Applications I
  49720.  
  49721.                          This session, along with the second session
  49722.                          on Thursday, will focus on significant
  49723.                          application domains and achievements in the
  49724.                          realm of scientific computing.  Titles and
  49725.                          some speakers are not fully committed but
  49726.                          the topic areas are indicated.  
  49727.  
  49728.                          Astrophysics, Mike Norman,
  49729.                              National Center for Supercomputer Applications
  49730.  
  49731.                          Molecular Dynamics, Peter Lomdahl,
  49732.                              Los Alamos National Laboratory
  49733.  
  49734.                          Material Science, TBD
  49735.  
  49736.                          Meteorology, TBD
  49737.  
  49738.                          Oil & Gas, TBD
  49739.  
  49740.                          Computational Fluid Dynamics, TBD
  49741.  
  49742. 12:00pm -  1:30pm    Lunch (provided)
  49743.  
  49744. 1:30pm  -  3:00pm    Panel Discussion:  What is Success in MPP?
  49745.  
  49746.                          Andy White, Los Alamos National Laboratory, will
  49747.                          pose the question: ``What is Success in the MPP
  49748.                          business, and how does Thinking Machines and the
  49749.                          user community get there?'' to a distinguished
  49750.                          panel including:
  49751.  
  49752.                          Danny Hillis, Thinking Machines
  49753.                          John Peterson, American Express
  49754.                          Dennis O'Neill, Schlumberger
  49755.                          Larry Smarr,
  49756.                              National Center for Supercomputer Applications
  49757.                          David Forslund, Los Alamos National Laboratory
  49758.                 
  49759. 3:00pm  -  3:30pm    Break
  49760.  
  49761. 3:30pm  -  5:00pm    Invited Talks:  Algorithms & Architecture
  49762.  
  49763.                          This session will focus on developments
  49764.                          in MPP architecture and parallel algorithms
  49765.                          of general interest.
  49766.  
  49767.                          Evolution of Architecture, Lew Tucker,
  49768.                              Thinking Machines
  49769.  
  49770.                          Parallel Rendering, Chuck Hansen,
  49771.                              Los Alamos National Laboratory
  49772.  
  49773.                          Algorithms, TBD
  49774.  
  49775. 6:00pm  -  9:30pm    Reception and Entertainment at the New Mexico
  49776.                      Museum of Fine Arts. Hosted by Thinking Machines.
  49777.  
  49778.  
  49779. Thursday February 17, 1994
  49780.  
  49781. 8:00am  -  5:00pm    Registration
  49782.  
  49783. 8:30am  - 10:00am    Workshop:  Communications and Programming Models
  49784.  
  49785.                          A facilitated but open forum for discussion of
  49786.                          issues concerning communications paradigms and
  49787.                          programming models available on the CM, including
  49788.                          CMMD, Active Messages, PVM, CMF and C* on the node,
  49789.                          and CMF and C* global/local programming.  Thinking
  49790.                          Machines developers and experienced users will
  49791.                          be on hand to share their insight.
  49792.  
  49793. 10:30am - 12:00pm    Invited Talks:  Scientific Applications II
  49794.  
  49795.                          (See "Scientific Applications I" above)
  49796.  
  49797. 10:00am - 10:30am    Break
  49798.  
  49799. 12:00pm -  1:30pm    Lunch (provided)
  49800.  
  49801. 1:30pm  -  3:00pm    Parallel Sessions:
  49802.  
  49803.                   1) Workshop:  System Administration Issues
  49804.  
  49805.                          A facilitated but open forum for discussion of
  49806.                          issues concerning the operation and administration
  49807.                          of a CM, including access control and accounting,
  49808.                          configuration of CMOST, SDA, HiPPI, and DJM.
  49809.                          Thinking Machines personnel as well as experienced
  49810.                          administrators from several large CM installations
  49811.                          will be on hand to provide their insight.
  49812.  
  49813.                   2) Invited Talks:  Information Processing
  49814.  
  49815.                          The Business Supercomputing Group at Thinking
  49816.                          Machines has big plans for the introduction of
  49817.                          MPP technology into a market traditionally dominated
  49818.                          by mainframe technology.  Thinking Machines and
  49819.                          some of their forward looking customers will
  49820.                          present information on new products and applications
  49821.                          for the CM.  Speakers TBD.
  49822.  
  49823. 3:00pm  -  3:30pm    Break
  49824.  
  49825. 3:30pm  -  5:00pm    Parallel Sessions:
  49826.  
  49827.                   1) Workshop:  Performance: Metrics and Reporting
  49828.  
  49829.                          A facilitated but open forum for discussion of
  49830.                          the problems with measuring and reporting on
  49831.                          performance. As simple gigaflop numbers become
  49832.                          increasingly suspect, establishing techniques
  49833.                          and guidelines for reporting meaningful
  49834.                          performance statistics is an issue to which the
  49835.                          MPP community need address itself.
  49836.  
  49837.                   2) Workshop:  Integrating the CM
  49838.  
  49839.                          A facilitated but open forum for discussion of
  49840.                          the fine art of exploiting the capabilities
  49841.                          of a CM within a heterogeneous computing
  49842.                          environment including everything from PCs to
  49843.                          supercomputers.  Networking, distributed computing,
  49844.                          visualization, mass storage, and resource allocation
  49845.                          are all likely topics.  Among the participants
  49846.                          will be Melissa Shearer of Mobil, Eric Townsend
  49847.                          of NASA Ames Research Center, and the systems staff
  49848.                          of the Advanced Computing Lab to share their
  49849.                          experiences and future plans.
  49850.  
  49851. Evening:             Birds of a Feather sessions
  49852.  
  49853.                          There's just not enough time for sessions on
  49854.                          everything of interest in this diverse community.
  49855.                          So space will be provided for impromptu gatherings
  49856.                          organized by conference participants on topics of
  49857.                          mutual interest.
  49858.  
  49859. Friday February 18, 1994
  49860.  
  49861. 8:00am  - 10:00am    Registration
  49862.  
  49863. 8:30am  - 10:00am    Workshop:  Performance: How to get there
  49864.  
  49865.                          A facilitated but open forum for discussion of
  49866.                          the craft of squeezing the utmost in performance
  49867.                          out of CM codes.  Participants are sure to include
  49868.                          Gordon Bell Prize finalists, Thinking Machines
  49869.                          performance gurus, and a host of others experienced
  49870.                          with getting the most out of CMF, C*, and CDPEAC.
  49871.  
  49872. 10:00am - 10:15am    Break
  49873.  
  49874. 10:15am - 11:45am    Work in Progress Session
  49875.  
  49876.                          This session will include a number of short
  49877.                          presentations on interesting work in progress
  49878.                          covering the entire spectrum of CM-related
  49879.                          activities.  If you are interested in making a
  49880.                          presentation, please bring it to our attention.
  49881.                          We will choose the most interesting proposals
  49882.                          for brief (5-10min) presentations.
  49883.  
  49884. 11:45am - 12:15pm    Closing Remarks
  49885.  
  49886.  
  49887. ------------------------------------------------------------------------------
  49888.  
  49889.  
  49890.         CM International User Group Meeting
  49891.             February 16-18, 1994
  49892.            Eldorado Hotel, Santa Fe, NM
  49893.  
  49894.             REGISTRATION FORM
  49895.  
  49896.  
  49897. Name (for your badge): (Last, First, MI)
  49898. Company: 
  49899. Work Address: 
  49900. City:
  49901. State:
  49902. Zip:
  49903. Country: 
  49904. Email Address:
  49905. Telephone (work):
  49906. FAX:
  49907.  
  49908. REGISTRATION FEES
  49909. -----------------
  49910. Received on or before February 1, 1994:    $150
  49911. Received after February 1, 1994:    $200
  49912.  
  49913. Please indicate participation at the receptions:
  49914.     Tuesday, Feb. 16    o yes    o no
  49915.     Wednesday, Feb. 17    o yes    o no
  49916.  
  49917. LANL Employees: Cost Center ____________ Program Code ____________
  49918.  
  49919.  
  49920. RETURN THIS FORM
  49921. ----------------
  49922. All registration forms must be returned along with payment. Make your
  49923. check payable in U.S. dollars to: CM User Group.  Send your
  49924. registration form and payment to:
  49925.  
  49926.     Los Alamos National Laboratory
  49927.     Protocol Office, MS P366
  49928.     Attn.: FIN-3 Conference Accountant
  49929.     Los Alamos, NM  87545
  49930.     Telephone No.: 505-667-6574     FAX No.: 505-667-7530   
  49931.  
  49932. To facilitate further mailings, please return an email copy of the
  49933. registration form to cm-users@acl.lanl.gov
  49934.  
  49935. ------------------------------------------------------------------------------
  49936.  
  49937. HOTEL INFORMATION
  49938. ----------------
  49939.  
  49940. A block of rooms has been reserved at the site of the meeting, the
  49941. Eldorado Hotel, 309 W. San Francisco Street, Santa Fe, NM. Please call
  49942. 1-800-955-4455 or 505-988-4455 for hotel reservations. Hotel rates
  49943. are:
  49944.  
  49945.     Government*:    $  72.65 (single)    $92.65 (double)
  49946.     Regular:    $110.00 (single/double)
  49947.  
  49948.   * Limited availability for those who may qualify and can provide
  49949.     valid identification
  49950.   * State Universities may qualify for Government rates
  49951.  
  49952. To obtain this special rate, please mention that you are with the CM
  49953. User Group when placing your reservation. Please make your
  49954. reservations by Friday, January 14, 1994.  After this cut-off date the
  49955. rooms will be booked subject to space and rate availability, so make
  49956. your reservations as soon as possible.
  49957.  
  49958. For further information please call Erma Pearson at 505-665-4530 or
  49959. send email to cm-users@acl.lanl.gov
  49960. --
  49961. Stephen C. Pope
  49962. scp@acl.lanl.gov
  49963.  
  49964. Approved: parallel@hubcap.clemson.edu
  49965. Follow-up: comp.parallel
  49966. Path: bounce-back
  49967. Newsgroups: comp.parallel
  49968. From: P.A.Nixon@sheffield.ac.uk (Paddy Nixon)
  49969. Subject: USA PhD requirements
  49970. Date: 17 Dec 1993 08:55:09 GMT
  49971. Organization: Academic Computing Services, Sheffield University
  49972. Nntp-Posting-Host: sunc.shef.ac.uk
  49973. X-Newsreader: TIN [version 1.2 PL2]
  49974.  
  49975. [check on parlib---there's a bunch of schools]
  49976.  
  49977.  
  49978. I have a Student who is just completing his B.SC (Hons)
  49979. degree in computing here in the U.K. He wants to start
  49980. a PhD in the area of parallel computing, and he wants
  49981. to undertake this in the states. I should add that he
  49982. has been doing a final year project with Sun in Manchester
  49983. on multi thread prgramming constructs/performance in
  49984. Solaris2, so I believe he a suitable candidate.
  49985.  
  49986. My questions are:
  49987.  
  49988. 1. What are the general requirements for entry onto a graduate
  49989. course. i.e. is a B.Sc. (hons) sufficient
  49990.  
  49991. 2. How is the best way of finding the graduate schools
  49992. and approaching them?
  49993.  
  49994. 3. What are the funding possibilities?
  49995.  
  49996. I would be very grateful for answers to the above and any other
  49997. information that is deemed relevant.
  49998.  
  49999. Thanks in advance
  50000.  
  50001. Paddy Nixon
  50002. Manchester Metropolitan University
  50003. (paddy@sun.com.mmu.ac.uk)
  50004.  
  50005.  
  50006.  
  50007.  
  50008. Approved: parallel@hubcap.clemson.edu
  50009. Follow-up: comp.parallel
  50010. Path: bounce-back
  50011. Newsgroups: comp.parallel
  50012. Sender: news@unixfe.rl.ac.uk
  50013. From: andrew@inf.rl.ac.uk (Andrew McDermott)
  50014. Subject: WTC '94 CALL FOR PAPERS
  50015. Date: 17 Dec 1993 12:07:26 GMT
  50016. Organization: RAL, Chilton, Didcot, England
  50017. Reply-To: sch@inf.rl.ac.uk
  50018. Nntp-Posting-Host: cork.inf.rl.ac.uk
  50019.  
  50020. WTC '94
  50021.  
  50022. CALL FOR PAPERS AND TUTORIAL PROPOSALS
  50023.  
  50024. Villa Erba, Cernobbio, Lake Como, Italy
  50025.  
  50026. 5 - 7 September, 1994
  50027.  
  50028. The Transputer Consortium (TTC) is pleased to announce that the WORLD 
  50029. TRANSPUTER CONGRESS 1994 (WTC '94) will be held on 5 - 7 September 
  50030. 1994 at the Villa Erba, Cernobbio, Lake Como, Italy . WTC '94 is the
  50031. leading international transputer conference and exhibition and is the
  50032. second in a series sponsored by and run under the overall management of
  50033. TTC. SGS-Thomson is also sponsoring WTC '94.
  50034.  
  50035. It is planned that each year WTC will be held in conjunction with a local
  50036. partner. For the first, highly successful, WTC '93, the local partner was
  50037. the German Transputer-Anwender-Treffen (TAT) conference. WTC '93, held at
  50038. the Eurogress Conference Centre in Aachen, Germany,  attracted 475
  50039. delegates from 32 countries worldwide. WTC '94 will be held in conjunction
  50040. with the Italian Transputer User Group (ItTUG), which is due to be formed
  50041. in early 1994. WTC '94 will incorporate the Inaugural Meeting of ItTUG.
  50042.  
  50043. WTC '94 will be the first major conference where significant applications of 
  50044. the new T9000 transputer and its associated technologies (e.g. packet routers) 
  50045. will be extensively reported. 
  50046.  
  50047. OBJECTIVES
  50048.  
  50049. *    present `state-of-the-art' research on all aspects of parallel 
  50050.     computing based upon communicating process architectures; 
  50051.  
  50052. *    to demonstrate `state-of-the-art' products and applications from 
  50053.     as wide a range of fields as possible;
  50054.  
  50055. *    to progress the establishment of international software and 
  50056.     hardware standards for parallel computing systems; 
  50057.  
  50058. *    to provide a forum for the free exchange of ideas, criticism and 
  50059.     information from a world audience gathered from Industry, 
  50060.     Commerce and Academia;
  50061.  
  50062. *    to promote an awareness of how transputer technologies may be 
  50063.     applied and their advantages over other sequential and parallel
  50064.     processors;
  50065.  
  50066. *    to establish and encourage an understanding of the new software 
  50067.     and hardware technologies enabled by the transputer, especially the 
  50068.     new T9000 processor and C104 packet router from INMOS, the 
  50069.     parallel DSP engines from Texas Instruments, and new products 
  50070.     from Intel and other manufacturers.
  50071.  
  50072. The conference themes will include: education and training issues, formal 
  50073. methods and security, performance and scalability, porting existing systems, 
  50074. parallelisation paradigms, tools, programming languages, support 
  50075. environments, standards and applications. 
  50076.  
  50077. Applications include: embedded real-time control systems, workstations, 
  50078. super-computing, consumer products, artificial intelligence, databases, 
  50079. modelling, design, data gathering and the testing of scientific or mathematical 
  50080. theories. 
  50081.  
  50082. BACKGROUND
  50083.  
  50084. The World Transputer Congress (WTC) series was formed in 1992 from the 
  50085. merger of the TRANSPUTING series of conferences, organised by the 
  50086. worldwide occam and Transputer User Groups, and the TRANSPUTER 
  50087. APPLICATIONS series of conferences, organised by the UK SERC/DTI 
  50088. Transputer Initiative.
  50089.  
  50090. WTC '93 attracted a large and enthusiastic audience from the majority of 
  50091. countries where transputer technology is accepted and/or parallel processing 
  50092. is seen as the key to meeting future computing demands. There is clearly a 
  50093. continuing, and growing, interest and commitment to this technology which 
  50094. will rely on the WTC series to maintain the vital information flow. It is 
  50095. reasonable to assume that it has already established itself as the leading 
  50096. conference in this important area. The successes of its predecessors has been a 
  50097. major factor in this. The continuing and vital support of TTC and the large 
  50098. number of User Groups from around the world will ensure a continuing 
  50099. success story for WTC.
  50100.  
  50101. FORMAT
  50102.  
  50103. The format adopted for WTC '93 will be continued at WTC '94. There will be a 
  50104. mix of Plenary Sessions, with Keynote and Invited Speakers from around the 
  50105. world, and Parallel Sessions, one of which will be organised by ItTUG. The 
  50106. exact number of Parallel Streams will be dependent on the quality of papers 
  50107. submitted against this Call for Papers. 
  50108.  
  50109. LOCATION
  50110.  
  50111. WTC '94 will be held at the Villa Erba Conference and Exhibition Centre, 
  50112. Cernobbio, Lake Como, Italy.  Cernobbio is 4KM from Como. The modern 
  50113. complex offers unique conference and exhibition facilities providing a main 
  50114. conference hall, meeting rooms and reception halls together with an 
  50115. exhibition area which can be divided into a maximum of 280 stands. It is set 
  50116. in the beautiful landscaped grounds of the Villa Erba on the shores of the 
  50117. lake. The Mannerist style Villa, with its steps down to the lake, was built in 
  50118. 1892 and is of both historic and artistic importance.
  50119.  
  50120. ACCOMMODATION
  50121.  
  50122. A range of hotel accommodation (2*, 3* and 4*) has been reserved for WTC '94  
  50123. in Cernobbio and Como. The majority of these hotels are within easy walking 
  50124. distance of the Villa Erba. However there is a limit to the total number of 
  50125. rooms available in the town, so early booking is recommended. Details will 
  50126. be sent, as soon as they are available, to all people who register their
  50127. interest 
  50128. in WTC '94 by returning the reply slip at the end of this announcement.
  50129.  
  50130. GETTING THERE
  50131.  
  50132. Como has excellent air, rail and road access, being within easy reach of two 
  50133. international airports, the main motorways and the trans-European rail 
  50134. networks. The two International Airports are Milan (Linate) and Lugano 
  50135. (Agno). Although many more international flights arrive at Milan, special 
  50136. arrangements are  being negotiated with Crossair for flights to and from 
  50137. Lugano. Crossair flights connect with international flights at many major
  50138. European airports. Travelling times by road to Como are 20 minutes from
  50139. Milan and 15 minutes from Lugano. Buses will be provided for delegates,
  50140. serving both airports. There is a frequent rail service from Milan to Como
  50141. and regular buses from Como to Cernobbio. Fuller details will be sent, as
  50142. soon as they are available, to people who register their interest in WTC
  50143. '94.
  50144.  
  50145. EXHIBITION
  50146.  
  50147. An associated exhibition attracting the world's leading suppliers of 
  50148. transputer-based and other relevant hardware, software and application 
  50149. products will be held at the Villa Erba Exhibition Centre. The WTC '93 
  50150. Exhibition was viewed as a great success by both exhibitors and participants 
  50151. alike and attracted a large number of visitors. Companies and other 
  50152. organisations wishing to exhibit at the WORLD TRANSPUTER CONGRESS 
  50153. 1994 should contact one of the Committee members listed at the end of this 
  50154. announcement. Opportunities will also exist for posters and demonstrations 
  50155. of academic achievements. 
  50156.  
  50157. CALL FOR PAPERS
  50158.  
  50159. The conference programme will contain invited papers from established 
  50160. international authorities together with submitted papers. The International 
  50161. Programme Committee, presided over by Ing. A De Gloria (University of 
  50162. Genoa), Dr S C Hilton (TTC), Dr M R Jane (TTC), Dr D Marini (University of 
  50163. Milan) and Professor P H Welch (WoTUG), is now soliciting papers on all 
  50164. areas described above. All papers will be fully refereed in their final form. 
  50165. Only papers of high excellence will be accepted. The proceedings of this 
  50166. conference will be published internationally by IOS Press and will be issued 
  50167. to delegates as they register at the  meeting.
  50168.  
  50169. BEST PAPER AWARD
  50170.  
  50171. The award for the best paper (worth approximately #500) will be based on 
  50172. both the submitted full paper for refereeing and the actual presentation at the 
  50173. Conference. Members of the Programme Committee will be the judges and 
  50174. their decision will be final. The winner will be announced and the 
  50175. presentation made in the final Closing Session on Wednesday, 7 September.
  50176.  
  50177. PROGRAMME COMMITTEE MEMBERS
  50178.  
  50179. The Programme Committee consists of invited experts from Industry and 
  50180. Academia, together with existing members from the joint organising user-
  50181. groups based in Australia, France, Germany, Hungary, India, Italy, Japan, 
  50182. Latin America, New Zealand, North America, Scandinavia and the United 
  50183. Kingdom.
  50184.  
  50185. The refereeing will be spread around the world to ensure that all points of 
  50186. view and expertise are properly represented and to obtain the highest 
  50187. standards of excellence.
  50188.  
  50189. INSTRUCTIONS TO AUTHORS
  50190.  
  50191. Four copies of submitted papers (not exceeding 16 pages, single-spaced, A4 or 
  50192. US 'letter') must reach the Committee member on the contact list below who
  50193. is closest to you by 1 March 1994. Authors will be notified of acceptance
  50194. by 24 May 1994. Camera-ready copy must be delivered by 23 June 1994, to
  50195. ensure inclusion in the proceedings.
  50196.  
  50197. A submitted paper should be a draft version of the final camera-ready copy. It 
  50198. should contain most of the information, qualitative and quantitative, that will 
  50199. appear in the final paper - i.e. it should not be just an extended abstract. 
  50200.  
  50201. CALL FOR TUTORIALS AND WORKSHOPS
  50202.  
  50203. Before the World Transputer Congress 1994, we shall be holding tutorials on 
  50204. the fundamental principles underlying transputer technologies, the design 
  50205. paradigms for exploiting them, and workshops that will focus directly on a 
  50206. range of specialist themes (e.g. real-time issues, formal methods, AI, image 
  50207. processing ..). The tutorials will be held on 3 - 4 September 1994 in the
  50208. Villa Erba itself.
  50209.  
  50210. We welcome suggestions from the community of particular themes that 
  50211. should be chosen for these tutorials and workshops. In particular, we 
  50212. welcome proposals from any group that wishes to run such a tutorial or 
  50213. workshop. A submission should outline the aims and objectives of the 
  50214. tutorial, give details of the proposed programme, anticipated numbers of 
  50215. participants attending (minimum and maximum) and equipment (if any) 
  50216. needed for support. Please submit your suggestions or proposals to one of the 
  50217. Committee members listed below by 1 March 1994. 
  50218.  
  50219. DELIVERY AND CONTACT POINTS
  50220.  
  50221. Dr Mike Jane, The Transputer Consortium, Informatics Department, 
  50222. Rutherford Appleton Laboratory, Chilton, Didcot, Oxon OX11 0QX, UK 
  50223. Phone: +44 235 445408; Fax: +44 235 445893; email: mrj@inf.rl.ac.uk
  50224.  
  50225. Dr Daniele Marini, Department of Computer Science, University of Milan, Via 
  50226. Comelico,39, Milan 20135, ITALY.
  50227. Phone: +39 2 5500 6358; Fax: +39 2 5500 6334
  50228. email:marini@imiucca.csi.unimi.it
  50229.  
  50230. Mr David Fielding, Chair, NATUG, Cornell Information Technologies, 502 
  50231. Olin Library, Cornell University, Ithaca NY 14853, USA 
  50232. Phone: +1 607 255 9098; Fax: +1 607 255 9346
  50233. email: fielding@library.cornell.edu
  50234.  
  50235. Dr Kuninobu Tanno,
  50236. Department of Electrical and Information Engineering, Yamagata University, 
  50237. Yonezawa, Yamagata 992, JAPAN 
  50238. Phone: +81 238 22 5181; Fax: +81 238 26 2082 
  50239. email: tanno@eie.yamagata-u.ac.jp
  50240.  
  50241. Mr John Hulskamp, Department of Computer Systems Engineering, RMIT, G.P.O.
  50242. Box 2476V, Melbourne, 3001 AUSTRALIA 
  50243. Phone: +61 3 660 5310 ; Fax: +61 3 660 5340; email: jph@rmit.edu.au
  50244.  
  50245. Dr Rafael Lins, Chair, OUG-LA, Department de Informatica, UFPE - CCEN, 
  50246. Cidade Universitaria, Recife - 50739 PE BRAZIL 
  50247. Phone: +55 81 2718430; Fax: +55 81 2710359; email: rdl@di.ufpe.br
  50248.  
  50249. FOR FURTHER INFORMATION PLEASE CONTACT:
  50250.  
  50251. Dr Susan C Hilton
  50252. Building R1
  50253. Rutherford Appleton Laboratory
  50254. CHILTON, 
  50255. DIDCOT, 
  50256. OXON. OX11 0QX
  50257. UK
  50258.  
  50259. Phone: +44 235 446154
  50260. Fax: +44 235 445893
  50261. email sch@inf.rl.ac.uk
  50262.  
  50263.  
  50264.  
  50265.  
  50266.  
  50267.  
  50268. Approved: parallel@hubcap.clemson.edu
  50269. Follow-up: comp.parallel
  50270. Path: bounce-back
  50271. Newsgroups: comp.parallel
  50272. From: muenkel@daedalus.tnt.uni-hannover.de (Heiko Muenkel)
  50273. Subject: Searching for Papers
  50274. Sender: news@newsserver.rrzn.uni-hannover.de (News Service)
  50275. Organization: Universitaet Hannover, Theoretische Nachrichtentechnik
  50276. Date: Fri, 17 Dec 1993 05:09:33 GMT
  50277. Apparently-To: hypercube@hubcap.clemson.edu
  50278.  
  50279. Hello,
  50280.  
  50281.  
  50282. I'm searching references on papers related to "Recognition of traffic signs",
  50283. written in english or german. Please reply by email to:
  50284.     muenkel@tnt.uni-hannover.de
  50285.  
  50286. I will post a summary, if there is any interest.
  50287.  
  50288.  
  50289. Thanks in advance,
  50290.  
  50291. Heiko
  50292. --
  50293. Dipl.-Ing. Heiko Muenkel           Universitaet Hannover
  50294.                    Institut fuer 
  50295.                    Theoretische Nachrichtentechnik
  50296. Approved: parallel@hubcap.clemson.edu
  50297. Follow-up: comp.parallel
  50298. Path: bounce-back
  50299. Newsgroups: comp.parallel
  50300. From: trachos@uni-paderborn.de (Konstantin Trachos)
  50301. Subject: Re: References about Topic "hot spot" ?
  50302. Date: 17 Dec 1993 14:29:30 GMT
  50303. Organization: Uni-GH Paderborn, Germany
  50304. References: <1993Dec1.163400.17011@hubcap.clemson.edu>
  50305. Nntp-Posting-Host: sunflower.uni-paderborn.de
  50306.  
  50307. I would like to express my special thanks to both turner@csrd.uiuc.edu and zhang@ringer.cs.utsa.edu for pointing me to papers covering the 
  50308. hot spot problem.
  50309.  
  50310. This is what I got:
  50311.  
  50312.     {ZYC93,
  50313.   author =     "Xiaodong Zhang, Yong Yan, Robert Castaneda",
  50314.   title =      "Comparative Cerformance Analysis and Evaluation of
  50315.           Hot Spots on Network-based Shared-memory
  50316.           Architectures",
  50317.   institution =  "The University of Texas at San Antonio"
  50318.   year =     1993
  50319.   address =      zhang@ringer.cs.utsa.edu
  50320. }
  50321.  
  50322. @TechReport{LSC92,      
  50323.   author =       "Jyh-Charn Liu and K. G. Shin and Charles C. Chang",
  50324.   title =        "Prevention of Hot Spots in Packet-Switched
  50325.                   Multistage Interconnection Networks",
  50326.   institution =  "Texas A\&M University",
  50327.   year =         1992,
  50328.   number =       "TAMU 92-016",
  50329.   address =      "College Station, Texas 77843-3112",
  50330.   month =        "July"
  50331. }
  50332.  
  50333.  
  50334. @Article{YeTL87,
  50335.   author =     "Pen-Chung Yew and Nian-Feng Tzeng and Duncan H. Lawrie",
  50336.   title =     "Distributing Hot Spot Addressing in Large Scale
  50337.          Multiprocessors",
  50338.   journal =     TOC,
  50339.   year =     "1987",
  50340.   volume =     "C-36",
  50341.   number =     "4",
  50342.   pages =     "388-395",
  50343.   month =     apr,
  50344.   OPTnote =     "Why hot spots need not be a problem"
  50345. }
  50346.  
  50347. @InProceedings{LeKK86,
  50348.   author =     "Gyungho Lee and Clyde P. Kruskal and David J. Kuck",
  50349.   title =     "The Effectiveness of Combining in Shared Memory
  50350.          Parallel Computers in the Presence of ``Hot Spots''",
  50351.   booktitle =     ICPP,
  50352.   year =     "1986",
  50353.   pages =     "35--41",
  50354.   OPTnote =     ""
  50355. }
  50356.  
  50357.  
  50358. @InProceedings{KuPf86,
  50359.   author =     "Manoj Kumar and Gregory F. Pfister",
  50360.   title =     "The Onset of Hot Spot Contention",
  50361.   booktitle =     ICPP,
  50362.   year =     "1986",
  50363.   pages =     "28--34",
  50364.   OPTnote =     ""
  50365. }
  50366.  
  50367. @InProceedings{PfNo85,
  50368.   author =       "G. F. Pfister and V. A. Norton",
  50369.   title =        "{`Hot Spot'} Contention and Combining in Multistage
  50370.                   Interconnection Networks",
  50371.   pages =        "790--797",
  50372.   booktitle =    "Proceedings of the International Conference on
  50373.                   Parallel Processing",
  50374.   year =         1985
  50375. }
  50376.  
  50377. @InProceedings{RPPP85,
  50378.   author =     "Gregory F. Pfister and W. C. Brantley and D. A.
  50379.          George and S. L. Harvey and W. J. Kleinfeider and K.
  50380.          P. McAuliffe and E. A. Melton and V. A. Norton and J. Weiss",
  50381.   title =     "The {IBM Research Parallel Processor Prototype (RP3)}:
  50382.          Introduction and Architecture",
  50383.   booktitle =     ICPP,
  50384.   year =     "1985",
  50385.   pages =     "764-771",
  50386.   month =     Aug,
  50387.   OPTnote =     "First coined term ``hot-spot''"
  50388. }
  50389.  
  50390.  
  50391. -- 
  50392.  
  50393. Konstantin Trachos            email: trachos@dat.uni-paderborn.de
  50394. --------------------------------------------------------------------------------
  50395. <<La tolirance est la chariti de l' intelligence.>> Jules Lemantre (1853 - 1914)
  50396.  
  50397. Approved: parallel@hubcap.clemson.edu
  50398. Follow-up: comp.parallel
  50399. Path: bounce-back
  50400. Newsgroups: comp.parallel
  50401. From: wakatani@cse.ogi.edu (Akiyoshi Wakatani)
  50402. Subject: Wanted [TeX style file for Parallel Computing]
  50403. Message-ID: <63016@ogicse.ogi.edu>
  50404. Date: 17 Dec 93 18:10:50 GMT
  50405. Article-I.D.: ogicse.63016
  50406. Posted: Fri Dec 17 10:10:50 1993
  50407. Sender: news@ogicse.ogi.edu
  50408. Followup-To: comp.parallel
  50409.  
  50410. Hi.
  50411.  
  50412. I'm looking for the TeX style file designed for Parallel Computing, which is 
  50413. a magazine published in Netherland.
  50414. I would appreciate it if anyone give me information about that.
  50415.  
  50416. Akiyoshi Wakatani
  50417.  
  50418. Approved: parallel@hubcap.clemson.edu
  50419. Follow-up: comp.parallel
  50420. Path: bounce-back
  50421. Newsgroups: comp.parallel
  50422. From: Ugur Halici<UGUR@vm.cc.metu.edu.tr>
  50423. Subject:      TAINN III : CALL FOR PAPERS
  50424.  
  50425.  
  50426.                         CALL FOR PAPERS
  50427.  
  50428.                           ---------
  50429.                           TAINN III
  50430.                           ---------
  50431.  
  50432.                The Third Turkish Symposium  on
  50433.           -----------------------------------------
  50434.           ARTIFICIAL INTELLIGENCE & NEURAL NETWORKS
  50435.           -----------------------------------------
  50436.             June 22-24, 1994, METU, Ankara, Turkey
  50437.  
  50438.  
  50439.                          Organized by
  50440.  
  50441.               Middle East Technical University
  50442.                               &
  50443.                       Bilkent University
  50444.  
  50445.                      in cooperation with
  50446.  
  50447.                       Bogazici University,
  50448.                             TUBITAK
  50449.                         INNS Turkey SIG,
  50450.              IEEE Computer Society  Turkey Chapter,
  50451.                    ACM SIGART Turkey Chapter,
  50452.  
  50453.  
  50454.                         Conference Chair:
  50455.              Nese Yalabik (METU), nese@vm.cc.metu.edu.tr
  50456.  
  50457.                    Program Committee  Co-chairs:
  50458.             Cem Bozsahin (METU), bozsahin@vm.cc.metu.edu.tr
  50459.             Ugur Halici (METU), halici@vm.cc.metu.edu.tr
  50460.             Kemal  Oflazer (Bilkent), ko@cs.bilkent.edu.tr
  50461.  
  50462.                    Organization Committee  Chair:
  50463.        Gokturk Ucoluk  (METU) ,   ucoluk@vm.cc.metu.edu.tr
  50464.  
  50465.                           Program Comittee:
  50466. L. Akin (Bosphorus), V. Akman (Bilkent), E. Alpaydin (Bosphorus),
  50467. S.I. Amari (Tokyo), I. Aybay (METU), B. Buckles (Tulane),
  50468. G. CARPENTER (BOSTON), I. CICEKLI (BILKENT), C. DAGLI (MISSOURY-ROLLA),
  50469. D.Davenport (Bilkent), G. Ernst (Case Western), A. Erkmen (METU)
  50470. N. Findler (Arizona State), E. Gelenbe (Duke), M. Guler (METU),
  50471. A. Guvenir (Bilkent), S. Kocabas (TUBITAK), R. Korf (UCLA),
  50472. S. Kuru (Bosphorus), D. Levine (Texas Arlington), R. Lippmann (MIT),
  50473. K. Narendra (Yale), H. Ogmen (Houston), U. Sengupta (Arizona State),
  50474. R. Parikh (CUNY), F. Petry (Tulane), C. Say (Bosphorus), A. Yazici (METU),
  50475. G. Ucoluk (METU), P. Werbos (NSF), N. Yalabik (METU), L. Zadeh (California),
  50476. W. Zadrozny (IBM TJ Watson)
  50477.  
  50478.  
  50479.                        Organization Committee:
  50480.       A. GULOKSUZ, O. IZMIRLI, E. ERSAHIN, I. OZTURK, C. TURHAN
  50481.  
  50482.  
  50483.                        Scope of the Symposium
  50484.  
  50485. * Commonsense Reasoning * Expert Systems  * Knowledge Representation
  50486. * Natural Language Processing *  AI Programming Environments and Tools
  50487. * Automated Deduction *   Computer Vision *  Speech Recognition
  50488. * Control and Planning *  Machine Learning and Knowledge Acquisition
  50489. * Robotics *  Social, Legal, Ethical Issues *  Distributed AI
  50490. * Intelligent Tutoring Systems  *  Search * Cognitive Models
  50491. * Parallel and Distributed Processing * Genetic Algorithms
  50492. * NN Applications * NN Simulation Environments * Fuzzy Logic
  50493. * Novel NN Models * Theoretical Aspects of NN * Pattern Recognition
  50494. * Other Related Topics on AI and NN
  50495.  
  50496. Paper Submission: Submit five copies  of full papers (in English or Turkish)
  50497. limited to 10 pages by January 31, 1994  to :
  50498.  
  50499.                       TAINN III, Cem Bozsahin
  50500.                  Department  of Computer Engineering
  50501.                  Middle  East Technical University,
  50502.                       06531, Ankara, Turkey
  50503.  
  50504. Authors will  be notified of acceptance by April 1, 1994. Accepted papers
  50505. will be published in the symposium proceedings.
  50506.  
  50507. The conference  will be held on the campus of Middle East Technical
  50508. University (METU)  in Ankara, Turkey.  A limited number of free lodging
  50509. facilities will be provided on campus for student participants. If there
  50510. is  sufficient interest, sightseeing tours to the nearby Cappadocia region
  50511. known for its mystical underground cities and fairy chimneys, to the
  50512. archaeological remains at Alacahoyuk , the capital of the Hittite empire,
  50513. and to local museums will be organized.
  50514.  
  50515. For further information and announcements contact:
  50516.  
  50517.                         TAINN, Ugur Halici
  50518.               Department of Electrical Engineering
  50519.                  Middle East Technical University
  50520.                     06531, Ankara, Turkey
  50521.  
  50522.       EMAIL: TAINN@VM.CC.METU.EDU.TR   (AFTER JANUARY 1994)
  50523.              HALICI@VM.CC.METU.EDU.TR  (BEFORE)
  50524.  
  50525.  
  50526. Approved: parallel@hubcap.clemson.edu
  50527. Follow-up: comp.parallel
  50528. Path: bounce-back
  50529. Newsgroups: comp.parallel
  50530. From: hunt@shy.umd.edu (Brian R. Hunt)
  50531. Subject: info wanted on IBM SP1
  50532. Date: 18 Dec 93 21:09:26 GMT
  50533. Organization: University of Maryland, College Park
  50534. Nntp-Posting-Host: shy.umd.edu
  50535.  
  50536. Hi folks, I've been charged with gathering information ASAP on the IBM
  50537. 9076 Scalable PowerParallel (SP1) system.  If anyone out there is
  50538. using one, I'd be interested in hearing your overall impression of
  50539. it.  In addition, I have a couple questions.  (I will address them to
  50540. the marketing people on Monday, but figure some outside opinions could
  50541. be helpful as well.)
  50542.  
  50543. Is, as I presume, the SP1 based on the POWER chip, and not the POWER2
  50544. or POWERPC?  Can anyone speculate as to whether and when it will be
  50545. upgradable to one of the latter chips, how much money might be
  50546. involved, etc.?
  50547.  
  50548. Is there anything special I should know about the SP1 with regard to
  50549. displaying graphics?  Any special features in the hardware setup, or
  50550. any graphical applications for which it offers a significant speed-up?
  50551.  
  50552. Many thanks if you can help,
  50553.  
  50554. -- 
  50555. Brian R. Hunt
  50556. hunt@ipst.umd.edu
  50557.  
  50558. Approved: parallel@hubcap.clemson.edu
  50559. Follow-up: comp.parallel
  50560. Path: bounce-back
  50561. Newsgroups: comp.parallel
  50562. From: jan@neuroinformatik.ruhr-uni-bochum.de (Jan Vorbrueggen)
  50563. Subject: Re: Status of Suprenum Project
  50564. Date: 19 Dec 93 20:34:31 GMT
  50565. Organization: Institut fuer Neuroinformatik, Ruhr-Universitaet Bochum, Germany
  50566. References: <1993Dec15.164542.10874@hubcap.clemson.edu>
  50567.  
  50568. They cancelled the project about two years or so ago after --- finally! ---
  50569. producing the first working hardware, years late. (If I remember right, they
  50570. were still using a 68020 as node controller when the 68040 was out...) The
  50571. main reason was that the hardware was no longer competitive. The whole thing
  50572. cost (main the German taxpayer) on the order of 150 MDM...think what you could
  50573. do with that amount of money! The software is owned and being actively
  50574. promoted (and, presumably, advanced) by a company called Pallas GmbH in Bonn.
  50575.  
  50576.     Jan
  50577.  
  50578. Approved: parallel@hubcap.clemson.edu
  50579. Follow-up: comp.parallel
  50580. Path: bounce-back
  50581. Newsgroups: comp.parallel
  50582. From: marc@access.digex.net (Marc E. Cotnoir)
  50583. Subject: Codes ported for message passing???
  50584. Organization: Express Access Online Communications, Greenbelt, MD USA
  50585.  
  50586. There has been much discussion about the implementation and comparative
  50587. performance of message passing systems such as CHAMELEON, p4, PVM, PARMACS and
  50588. (soon-to-be) MPI, for the development of parallel programs on multi-processor
  50589. systems and clustered workstations. 
  50590.  
  50591. But how many real codes are being or have been of ported to these 
  50592. environments?
  50593.  
  50594. I am thinking specifically of widely used codes for applications such 
  50595. as finite element, molecular modelling, cfd and such.
  50596.  
  50597. If you are currently involved in such porting work, or know of centers where
  50598. these activities are on-going, I'd like to receive this information. 
  50599.  
  50600. Please forward details regarding what codes are being (or have been)
  50601. ported, which message passing system is used and the sites or contact
  50602. details where this work is going on (if known). 
  50603.  
  50604. Please email to the address below and if the response is high I will 
  50605. summarize to this newsgroup.
  50606.  
  50607. Thanks in advance for your help.
  50608.  
  50609. Regards
  50610.  
  50611. Marc
  50612. marc@access.digex.net
  50613.  
  50614. Approved: parallel@hubcap.clemson.edu
  50615. Follow-up: comp.parallel
  50616. Path: bounce-back
  50617. Newsgroups: comp.parallel
  50618. From: Marie-Christine Sawley <sawley@sic.epfl.ch>
  50619. Subject: Position offered at EPFL/Switzerland
  50620. Organization: Service Informatique Central
  50621. Nntp-Posting-Host: samac9.epfl.ch
  50622. X-Useragent: Nuntius v1.1.2
  50623. X-Xxdate: Mon, 20 Dec 93 12:38:36 GMT
  50624.  
  50625. SCIENTIST/ PROGRAMMER IN PARALLEL COMPUTING 
  50626.  
  50627. Swiss Federal Institute of Technology of Lausanne (EPFL) 
  50628.  
  50629.  
  50630. The EPFL has a vacancy within the framework of the Parallel Application
  50631. Technology Program (PATP) established in collaboration with CRAY RESEARCH
  50632. Inc. This program is aimed at the development of scientific applications
  50633. for the massively parallel computer, the Cray T3D. We are presently
  50634. looking for a senior scientist / programmer having a solid background in
  50635. scientific simulation and an excellent knowledge of Fortran, C and UNIX,
  50636. to join the Program Support Team. The position requires a strong interest
  50637. in taking up the unique challenge of contributing to the expansion of
  50638. parallel computing technology at the EPFL, good communication skills and
  50639. the ability to work in a multidisciplinary group. An experience on
  50640. parallel architectures and programming methodologies would be highly
  50641. desirable. The position is available from 1 January 1994 for a period of
  50642. 12 months, with possible renewals. The level of appointment will depend
  50643. on the qualifications of the applicant.
  50644.  
  50645. Applications, including a curriculum vitae and the names of references,
  50646. should be sent before 31 January 1993 to Dr. Marie-Christine Sawley, SIC,
  50647. MA-Ecublens, CH-1015 Lausanne, Switzerland. (For further information Tel:
  50648. +41 21 693 2242; Fax: +41 21 693 2220; e-mail: sawley@sic.epfl.ch.)
  50649.  
  50650. The EPFL is comprised of 11 departments actively involved in both
  50651. research and teaching with a total of 4200 students, 140 professors, 1400
  50652. research staff, as well as additional administrative and technical staff.
  50653. Excellent computer resources are available, consisting of central
  50654. supercomputers (presently a Cray Y-MP M94 and a Cray Y-MP EL file
  50655. server), as well as the computational resources (e.g., high and low level
  50656. workstations) of the various departments and institutes. The EPFL will
  50657. install in April 1994 a Cray T3D system with 128 processors (to be
  50658. upgraded to 256). The EPFL is the sole European PATP site; its activities
  50659. will be coordinated with the three corresponding American programs at
  50660. Pittsburgh Supercomputing Center, JPL/Caltech, and LLNL/LANL.
  50661.  
  50662. Dr. M.-C. SAWLEY
  50663. Section assistance
  50664. Service Informatique Central
  50665. MA-ECUBLENS
  50666. 1015-LAUSANNE (CH)
  50667. email: sawley@sic.epfl.ch
  50668.  
  50669. Approved: parallel@hubcap.clemson.edu
  50670. Follow-up: comp.parallel
  50671. Path: bounce-back
  50672. Newsgroups: comp.parallel
  50673. From: am@cheops.ief-paris-sud.fr (Alain Merigot)
  50674. Subject: Re: ?Hyper-C (Re: Data-parallel languages (non-CM C*)?)
  50675. Date: 20 Dec 1993 15:09:36 GMT
  50676. Organization: IEF - Universite Paris Sud, Orsay, France
  50677. References: <1993Dec7.155305.4663@hubcap.clemson.edu> <1993Dec9.142826.1645@hubcap.clemson.edu> <1993Dec14.140651.21226@hubcap.clemson.edu>
  50678. Nntp-Posting-Host: cheops.ief-paris-sud.fr
  50679. X-Newsreader: TIN [version 1.2 PL2]
  50680.  
  50681. thomas faerbinger (thomas@wein12.elektro.uni-wuppertal.de) wrote:
  50682. : In article <1993Dec9.142826.1645@hubcap.clemson.edu>
  50683. : cary@esl.com (Cary Jamison) wrote:
  50684.  
  50685. : |> In article <1993Dec7.155305.4663@hubcap.clemson.edu>, richards@wrl.EPI.COM
  50686. : |> (Fred Richards) wrote:
  50687. : |> > 
  50688. : |> > Is any data-parallel language emerging as a standard,
  50689. : |> > much as PVM seems to be as a message-passing library?
  50690. : |> > 
  50691. : |> > Does C*, or something *very* similar, run on any of the
  50692. : |> > other MPP machines (Intel, nCube, MasPar, etc.)
  50693. : |> 
  50694. : |> Can't say that it's an emerging standard, but HyperC seems promising.  It
  50695. : |> is running on workstation clusters (usually built on PVM), CM, MasPar, and
  50696. : |> is being ported to others such as nCube.
  50697.  
  50698. : Is (the PVM-version of) Hyper-C ftp-able somewhere? ( where? )
  50699.  
  50700. : I'm fumbling around with PVM ( on a small workstation-cluster running ULTRIX ),
  50701. : CMMD and C* (on a CM5) and would like to complete this choice for some kind
  50702. : of comparison.
  50703.  
  50704. Hyper-C is a *commercial* language from HyperParallel Technology. They
  50705. can be contacted at  hyperc-support@hyperparallel.polytechnique.fr. 
  50706.  
  50707. Presently, there is only a support on a workstation and a new MPV
  50708. version. This version can be used with parallel machines that support
  50709. MPV, but there is currently no optimized version for any parallel machine.
  50710.  
  50711. I am using Hyperc-C on a workstation for 9 monthes now, and I am
  50712. quite satisfied by the language, that, to my opinion, is much better
  50713. than C*. Can't tell about the MPV version, that I have not already
  50714. experimented.
  50715.  
  50716. Hope this helps.
  50717.  
  50718. Alain Merigot
  50719. --
  50720.  
  50721. || Alain  Merigot                       /------------------------------\ ||
  50722. || Institut d'Electronique Fondamentale |   Tel :   33 (1) 69 41 65 72 | ||
  50723. || Universite Paris Sud                 | Email :   am@ief-paris-sud.fr| ||
  50724. || 91405 Orsay Cedex                |   Fax :   33 (1) 60 19 25 93 | ||
  50725. Approved: parallel@hubcap.clemson.edu
  50726. Follow-up: comp.parallel
  50727. Path: bounce-back
  50728. Newsgroups: comp.parallel
  50729. From: steven.parker@acadiau.ca (Steven E. Parker)
  50730. Subject: Looking for anon ftp site at Syracuse University
  50731. Sender: news@relay.acadiau.ca
  50732. Nntp-Posting-Host: dragon.acadiau.ca
  50733. Organization: Acadia University
  50734. Date: Mon, 20 Dec 1993 16:47:22 GMT
  50735. Apparently-To: uunet!comp-parallel
  50736.  
  50737. I am looking for the anon ftp site for the Northeast Parallel Architectures 
  50738. Center at Syracuse University.
  50739.  
  50740. I am trying to locate some technical reports which were cited in a paper.
  50741.  
  50742.  
  50743. Regards,
  50744.   -- Steven Parker.                    (steven.parker@acadiau.ca)
  50745.  
  50746.  
  50747. Approved: parallel@hubcap.clemson.edu
  50748. Follow-up: comp.parallel
  50749. Path: bounce-back
  50750. Newsgroups: comp.parallel
  50751. From: pleierc@Informatik.TU-Muenchen.DE (Christoph Pleier)
  50752. Subject: Distributed C Development Environment now available for LINUX and UNICOS
  50753. Keywords: distributed programming, parallel programming, Distributed C
  50754. Originator: pleierc@hpeick9.informatik.tu-muenchen.de
  50755. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  50756. Organization: Technische Universitaet Muenchen, Germany
  50757. Date:     Mon, 20 Dec 1993 14:30:25 +0100
  50758.  
  50759. Distributed C Development Environment now available for LINUX and UNICOS
  50760.  
  50761. The Distributed C Development Environment is now available for
  50762. AT 386/486 running LINUX and for Cray supercomputers running UNICOS. 
  50763. The environment is stored at ftp.informatik.tu-muenchen.de in the 
  50764. directory /local/lehrstuhl/eickel/Distributed_C. You can get it by
  50765. anonymous ftp.
  50766.  
  50767. -----
  50768.  
  50769. The Distributed C Development Environment was developed at Technische
  50770. Universitaet Muenchen, Germany, at the chair of Prof. Dr. J. Eickel and is 
  50771. a collection of tools for parallel and distributed programming on single-
  50772. processor-, multiprocessor- and distributed-UNIX-systems, especially on 
  50773. heterogenous networks of UNIX computers. The environment's main purpose 
  50774. is to support and to simplify the development of distributed applications 
  50775. on UNIX networks. It consists of a compiler for a distributed programming
  50776. language, called Distributed C, a runtime library and several useful tools.
  50777.  
  50778. The programming model is based on explicit concurrency specification in the 
  50779. programming language DISTRIBUTED C, which is an extension of standard C. 
  50780. The language constructs were mainly taken from the language CONCURRENT C
  50781. developed by N. Gehani and W. D. Roome and are based on the concepts for
  50782. parallel programming implemented in the language ADA. Distributed C makes 
  50783. possible the common programming in C together with the user-friendly 
  50784. programming of process management, i. e. the specification, creation, 
  50785. synchronization, communication and termination of concurrently executed 
  50786. processes.
  50787.  
  50788. The Distributed C Development Environment supports and simplifies the dis-
  50789. tributed programming in several ways:
  50790.  
  50791.     o Development time is reduced by checking Distributed C programs for
  50792.       errors during compilation. Because of that, errors within communication
  50793.       or synchronization actions can be easier detected and avoided.
  50794.     o Programming is simplified by allowing the use of simple pointer types
  50795.       even on loosely-coupled systems. This is perhaps the most powerful
  50796.       feature of Distributed C. In this way, dynamic structures like chained
  50797.       lists or trees can be passed between processes elegantly and easily -
  50798.       even in heterogeneous networks. Only the anchor of a dynamic structure
  50799.       must be passed to another process. The runtime system automatically
  50800.       allocates heap space and copies the complete structure.
  50801.     o Developement is user-friendly by supporting the generation and 
  50802.       installation of the executable files. A special concept was developed
  50803.       for performing the generation and storage of binaries by local and
  50804.       remote compilation in heterogeneous UNIX-networks.
  50805.     o Programming difficulty is reduced by software-aided allocating processes
  50806.       at runtime. Only the system administrator needs to have special knowledge
  50807.       about the target system's hardware. The user can apply tools to map the
  50808.       processes of a Distributed C program to the hosts of a concrete target
  50809.       system.
  50810.     o Execution time is reduced by allocating processes to nodes of a network
  50811.       with a static load balancing strategy.
  50812.     o Programming is simplified because singleprocessor-, multiprocessor- and
  50813.       distributed-UNIX-systems, especially homogeneous and heterogeneous UNIX-
  50814.       networks can be programmed fully transparently in Distributed C.
  50815.  
  50816. The Distributed C Development Environment consists mainly of the tools:
  50817.  
  50818.     o Distributed C compiler (dcc): 
  50819.       compiles Distributed C to standard C.
  50820.     o Distributed C runtime library (dcc.a): 
  50821.       contains routines for process creation, synchonization, ...
  50822.     o Distributed C administration process (dcadmin):
  50823.       realizes special runtime features.
  50824.     o Distributed C installer program (dcinstall): 
  50825.       performes the generation and storage of binaries by local 
  50826.       and remote compilation in heterogeneous UNIX-networks.
  50827.  
  50828. The environment runs on the following systems:
  50829.  
  50830.     o Sun SPARCstations (SunOS), 
  50831.     o Hewlett Packard workstations (HP/UX),
  50832.     o IBM workstations (AIX), 
  50833.     o IBM ATs (SCO XENIX, SCO UNIX, LINUX),
  50834.     o Convex supercomputers (ConvexOS),
  50835.     o Cray supercomputers (Unicos),
  50836.     o homogeneous and heterogeneous networks of the systems as mentioned above.
  50837.  
  50838. Moreover the implementation was designed for the use on Intel iPSC/2s. 
  50839.  
  50840. The Distributed C Development Environment source code is provided "as is" 
  50841. as free software and distributed in the hope that it will be useful,
  50842. but without warranty of any kind.
  50843.  
  50844. -- 
  50845.  
  50846. Christoph Pleier
  50847.  
  50848. pleierc@informatik.tu-muenchen.de
  50849.  
  50850.  
  50851. Approved: parallel@hubcap.clemson.edu
  50852. Follow-up: comp.parallel
  50853. Path: bounce-back
  50854. Newsgroups: comp.parallel
  50855. Date: Mon, 20 Dec 93 11:30:49 CST
  50856. Subject: VIRTUAL REALITY IN MEDICINE
  50857. From: Karen Morgan <70530.1227@CompuServe.COM>
  50858.  
  50859. Medicine Meets Virtual Reality II:  INTERACTIVE TECHNOLOGY AND HEALTHCARE:
  50860. VISIONARY APPLICATIONS FOR SIMULATION, VISUALIZATION, ROBOTICS
  50861. January 27-30, 1994, San Diego Marriott Hotel & Marina
  50862. Sponsored by UCSD, 23 hours Category 1 CME credit, $390 until December 31, $450
  50863. after, call 619/751-8841, fax 751-8842, or E-mail 70530,1227@compuserve.com for
  50864. information
  50865.  
  50866. THURSDAY, January 27, three workshops offered simultaneously:
  50867. I.  BIOLOGICAL INFORMATICS, Hans B. Sieburg, Ph.D., Chair, Participants:
  50868. Sheldon Ball, Floyd Bloom, Michael Huerta, Ralph Martinez, Jack Park, Stella
  50869. Veretnik, W. Ziarko
  50870.  
  50871. II. MASSIVELY PARALLEL PROCESSING COMPUTERS FOR MEDICAL TECHNOLOGY DEVELOPMENT
  50872. Makoto Nonaka, M.D., Ph.D., Chair, Participants:  Adrian King, Patrick Chang,
  50873. Michael Gribskov, Russ Altman, Tom Brotherton
  50874.  
  50875. III.INTERACTIVE TECHNOLOGIES IN HEALTHCARE:  THE "BIG PICTURE"
  50876. Dave Warner, Chair
  50877.  
  50878. FRIDAY, January 28
  50879.  
  50880. TECHNOLOGY ASSESSMENT: Who Will Pay and Why?  Diane S. Millman, J.D., Paul
  50881. Radensky, M.D., J.D., John E. Abele, Steven T. Charles, M.D., Mark Wiederhold,
  50882. M.D., Ph.D., Faina Shtern, M.D., Melvyn Greberman, M.D., MPH
  50883.  
  50884. DATA FUSION:  More Than the Sum of the Parts.  Don Stredney, Hans B. Sieburg,
  50885. Ph.D., Mark Wiederhold, M.D., Ph.D.
  50886.  
  50887. APPLICATIONS: New Visions for New Technologies.  Col. Richard M. Satava, M.D.,
  50888. Joseph M. Rosen, M.D., Harvey Eisenberg, M.D., Michael D. Doyle, Ph.D., Walter
  50889. J. Greenleaf, Ph.D., John P. Brennan, M.D., Kenneth Kaplan, Beth A. Marcus,
  50890. Ph.D., Suzanne Weghorst, Christopher C. Gallen, M.D., Ph.D.
  50891.  
  50892. SURGERY:  Images of the New Paradigm.  Glenn M. Preminger, M.D., John Flynn,
  50893. Adrie C.M. Dumay, Ph.D., David Hon, Jonathan R. Merril, M.D., Zoltan Szabo,
  50894. Ph.D., Michael Truppe, M.D., Patrick J. Kelly, M.D., Robert B. Lufkin, M.D.,
  50895. Leon Kaufman, Ph.D., Karun Shimoga, Ph.D., William E. Lorensen, Volker Urban,
  50896. M.D., P. Mayer, N. M. Huewel, M.D.
  50897.  
  50898. SATURDAY, January 29
  50899.  
  50900. EDUCATION AND TRAINING:  The Best and Highest Use.  J.K. Udupa, Ph.D., Richard
  50901. A. Robb, Ph.D., Jonathan Prince, D.D.S., Helene M. Hoffman, Ph.D., Michael J.
  50902. Ackerman, Ph.D.
  50903.  
  50904. INTERFACE:  Speaking the Same Language.  Nathaniel I. Durlach, Dave Warner, Col.
  50905. Richard M. Satava, M.D., Myron Krueger, Ph.D., Walter J. Greenleaf, Ph.D., Paul
  50906. Cutt, Narender P. Reddy, Ph.D., Scott Hassan, Alan Barnum-Scrivener, John
  50907. Peifer, M.A.
  50908.  
  50909. TELEROBOTICS:  Reach Out and Touch Something.  Ian Hunter, Ph.D., Paul S.
  50910. Schenker, Ph.D., Elmar H. Holler, Steven T. Charles, M.D., Bela L. Musits, Hugh
  50911. Lusted, Ph.D., Janez Funda, Ph.D., Yulun Wang, Ph.D.
  50912.  
  50913. SUBMITTED PAPERS:
  50914. Gabriele Faulkner, Ph.D., Uwe G. Kuehnapfel, Ph.D., Matthias Wapler, R. Bowen
  50915. Loftin, Ph.D., Jaren Parikh, Kurt R. Smith, D.Sc., Bruce Kall, M.S., Donald W.
  50916. Kormos, Ph.D., David W. Cloyd, M.D., Penny Jennett, Ph.D., Lauren Gabelman,
  50917. M.S., Joshua Lateiner, Anthony M. DiGioia III, M.D., Joseph B. Petelin, M.D.,
  50918. Timothy Poston, Erik Viirre, M.D., Ph.D., Mark Bolas, A. David Johnson, Ph.D.,
  50919. Brian D. Athey, Ph.D.
  50920.  
  50921. SUNDAY, January 30
  50922.  
  50923. TELEMEDICINE:  The Global Health Community.  Dave Warner, Michael F. Burrow, Jay
  50924. H. Sanders, M.D., Ralph Martinez, Ph.D., William J. Dallas, Ph.D., John D.
  50925. Hestenes, Ph.D., Rudy Mattheus, M.Sc., Georges J.E. De Moor, M.D., Jens P.
  50926. Christensen, M.SE., MBA
  50927.  
  50928. SUMMARY DISCUSSION:  Improving Quality, Continuity, and Access to Healthcare
  50929. While Reducing Cost.  Faina Shtern, M.D., Col. Richard M. Satava, M.D., Makoto
  50930. Nonaka, M.D., Ph.D., Nathaniel I. Durlach, John D. Hestenes, Ph.D., Rudy
  50931. Mattheus, M.Sc., Melvyn Greberman, M.D., MPH
  50932.  
  50933. EXHIBITS:  Advanced Visual Systems, Inc., Artma Biomedical, Inc., BioControl
  50934. Systems, Inc., Computer Motion, Inc., Dimension Technologies, Inc., Engineering
  50935. Animation, Inc., XTensory, Inc., High Techsplanations, Inc., Image Technology
  50936. Associates, Inc., Immersion Corp., IVI Publishing, IXION, Kaiser Medical Optics,
  50937. Inc., Shooting Star Technology, Silicon Graphics, Inc., SONY Medical Systems,
  50938. Inc., Stealth Technologies, Inc., Pixys, Inc., Virtual Vision
  50939.  
  50940.  
  50941.  
  50942. Approved: parallel@hubcap.clemson.edu
  50943. Follow-up: comp.parallel
  50944. Path: bounce-back
  50945. Newsgroups: comp.parallel
  50946. From: ara@zurich.ai.mit.edu (Allan Adler)
  50947. Subject: Free Simulator Wanted
  50948. Date: 20 Dec 93 14:30:38
  50949. Organization: M.I.T. Artificial Intelligence Lab.
  50950. Nntp-Posting-Host: camelot.ai.mit.edu
  50951.  
  50952.  
  50953.  
  50954. I would like to explore the development of parallel code using a simulator
  50955. for a parallel processor. I know that things like that exist, e.g. there
  50956. was  a simulator for the Connection Machine running on a Symbolics
  50957. Lisp Machine. Me, I would just like a simulator that runs on a UNIX
  50958. system with one processor. I can't afford to purchase software, so I
  50959. need for it to be free.
  50960.  
  50961. Does anyone know where I can get that? How about a compiler which
  50962. is targeted to it?
  50963.  
  50964. Allan Adler
  50965. ara@altdorf.ai.mit.edu
  50966.  
  50967. Approved: parallel@hubcap.clemson.edu
  50968. Follow-up: comp.parallel
  50969. Path: bounce-back
  50970. Newsgroups: comp.parallel
  50971. Date: Mon, 20 Dec 1993 19:31:26 GMT
  50972. From: kale@cs.uiuc.edu
  50973. Subject: Re: asynchronous IO (message passing)
  50974. Sender: news@cs.uiuc.edu
  50975. Organization: Dept. of Computer Sci - University of Illinois
  50976. References: <1993Dec15.144124.27510@hubcap.clemson.edu>
  50977.  
  50978.  
  50979. > You should carefully distinguish between
  50980. >  
  50981. >  1) asynchronous (or non-blocking) message passing, in which you can start
  50982. >  a message passing op (send or receive) and then later test or wait
  50983. >   for its completion
  50984. >   
  50985. >  and
  50986. >    
  50987. >  2) interrupt or signal driven message passing (probably only useful for a
  50988. >  receive !) in which receipt of a particular message forces execution
  50989. > of a routine asynchronously to the execution of the users code.
  50990. >    MPI fully supports 1, and provides no support for 2.
  50991.  
  50992. There is a third way: message driven execution.
  50993.  
  50994. In a message driven system, such as Charm, there may be one or many
  50995. small processes (or objects, if you like OO terminology) per
  50996. processor. Each process defines several entry-functions. Each message
  50997. is directed to a specific entry-function of a particular process.
  50998. The Charm runtime system (using a possibly user selected scheduling
  50999. strategy) repeatedly picks a message, and schedules the appropriate
  51000. process to execute.
  51001.  
  51002. Message driven execution leads to substantial performance gains for
  51003. many applications. It gives one the ability to *adaptively* overlap
  51004. communication and computation. It doesn't have the "ugliness" and
  51005. other problems of (2) (interrupt driven execution) Jim mentions.
  51006. Moreover, it leads to much modular code than (1) - testing or
  51007. probing for message arrivals.
  51008.  
  51009. I would like to elaborate these points in another posting; but thought
  51010. I should at least respond briefly right away.
  51011.  
  51012.     --- L.V. Kale
  51013.         kale@cs.uiuc.edu
  51014. p.s. More information on Charm: anon. ftp: a.cs.uiuc.edu, in pub/CHARM.
  51015.  
  51016.  
  51017. Approved: parallel@hubcap.clemson.edu
  51018. Follow-up: comp.parallel
  51019. Path: bounce-back
  51020. Newsgroups: comp.parallel
  51021. From: furnari@sp61.csrd.uiuc.edu (Mario Furnari)
  51022. Subject: Last Call For Paper for MP94
  51023. Message-ID: <1993Dec21.003652.15140@csrd.uiuc.edu>
  51024. Summary:  Worksho on Massi Parallel Programming and APplications
  51025. Keywords:  Massive Paralellism
  51026. Sender: mf@arco.na.cnr.it
  51027. Organization: Istituto di Cibernetica, Arco Felice Italy
  51028.  
  51029.             $2^{nd}$ International Workshop
  51030.                     on 
  51031.            Massive Parallelism: Hardware, Software and Applications
  51032.                 October  3-7 1994
  51033.                   Capri - Italy
  51034.  
  51035.  
  51036.  
  51037.                   Organized by:
  51038.               Istituto di Cibernetica (Naples, Italy)    
  51039.  
  51040. in cooperation with
  51041.  
  51042.   Department of Computer Architecture (Barcelona, Spain)
  51043.   Department of Computer Science (Patras, Grece)
  51044.   Center for Supercomputing Research & Development (Urbana Champagin, U.S.A)
  51045.  
  51046.  
  51047. The $2^{nd}$ International Workshop on Massive Parallelism: Hardware, 
  51048. Software, and Application is sponsored by the "Progetto Finalizzato Calcolo 
  51049. Parallelo e Sistemi Informativi" which was established by the Italian
  51050. "Consiglio Nazionale delle Ricerche" to advance knowledge in all areas 
  51051. of parallel processing and related technologies.  
  51052. In addition to technical sessions of submitted paper presentations, MP '94 
  51053. will offer tutorials, a parallel systems fair, and commercial exhibits.
  51054.  
  51055.  
  51056. Call For Papers:
  51057. Authors are invited to submit manuscripts that demonstrate original unpublished
  51058. research in all areas of parallel processing including development of
  51059. experimental or commercial systems.  
  51060. Topics of interest include but are not limited to:
  51061.  
  51062.   Parallel Algorithms                Parallel Architectures
  51063.   Parallel Languages                 Programming Environments 
  51064.   Parallelizing Compilers            Performance Modeling/Evaluation   
  51065.   Signal & Image Processing Systems    Other Applications areas 
  51066.  
  51067.  
  51068. To submit an original research paper, send five (hard) copies of your
  51069. complete manuscript (not to exceed 15 single-spaced pages of text using
  51070. point size 12 type on 8 1/2 X 11 inch pages) to the Program Chair.
  51071. References, figures, tables, etc.  may be included in addition to the
  51072. fifteen pages of text.  
  51073. Please include your postal address, e-mail address, telephone and fax numbers.
  51074. All manuscripts will be reviewed.
  51075.  
  51076. Manuscripts must be received by "January 15, 1994".  
  51077. Submissions received after the due date or exceeding the length limit may 
  51078. be returned and not considered.  
  51079.  
  51080. Notification of review decisions will be mailed by "April 31, 1994".  
  51081. Camera-ready papers are due "May 31, 1994".
  51082. Proceedings will be available at the Symposium.  
  51083. Electronic submissions will be considered only if they are in LaTeX or
  51084. MS-Word 5 for Macintosh.
  51085.  
  51086.  
  51087. Tutorials:
  51088. Proposals are solicited for organizing full or half-day tutorials to be held 
  51089. on during the Symposium.  
  51090. Interested individuals should submit a proposal by January 15, 1994 to
  51091. the  Tutorials Chair.  
  51092. It should include a brief description of the intended audience, a lecture 
  51093. outline and vita lecturer(s).
  51094.  
  51095.  
  51096. Parallel Systems Fair:
  51097. This all day event will include presentations by researchers who have  parallel
  51098. machines under development, as well as by representatives of companies with
  51099. products of interest to the  Massively Parallel Processing community. 
  51100. A presentation summary should be submitted to the Parallel Systems Chair  by
  51101. January 15, 1994.  
  51102.  
  51103.  
  51104.                 MP '94 Organization:
  51105.  
  51106.                     Workshop Program Committee:
  51107.  
  51108.     Arvind (USA)                E. Ayguade (Spain)         
  51109.     R. Bisiani (Italy)              A. Fukuda (Japan)               
  51110.     W. Jalby (France)               R. Halstead (U.S.A.)           
  51111.     J. Labarta (Spain)              M. Mango Furnari (Italy)        
  51112.     A. Nicolau (USA)                D. Padua (USA)            
  51113.     R. Perrot (U.K.)                C. Polychronopoulos (USA)       
  51114.     T.  Papatheodoru (Greece)       B. Smith (U.S.A.)               
  51115.     M. Valero (Spain)                R. Vaccaro (Italy)              
  51116.     E. Zapata (Spain) 
  51117.  
  51118.  
  51119.  
  51120.                    Organizing Committee:
  51121.  
  51122. M. Mango Furnari (Italy)       T. Papatheodoru (Greece) 
  51123. R. Napolitano (Italy)           C. Di Napoli(Italy)
  51124. E. Ayguade (Spain)           D. Padua (U.S.A.) 
  51125.  
  51126.  
  51127. Tutorials Chair:
  51128. Prof.  C. Polychronopoulos 
  51129. CSRD, University of Illinois
  51130. 1308 West Main St. 
  51131. Urbana Champaign 
  51132. IL 61801-2307 U.S.A.
  51133. Ph.: (+1) (217) 244-4144 
  51134. Fax: (+1) (217) 244-1351
  51135. Internet: cdp@csrd.uiuc.edu  
  51136.  
  51137. Parallel Systems Fair Chair:
  51138. Prof. A. Massarotti
  51139. Istituto di Cibernetica
  51140. Via Toiano, 6
  51141. I-80072 - Arco Felice (Naples)
  51142. Italy
  51143. Phone: +39-81-853-4126 
  51144. Fax:   +39-81-526-7654
  51145. E-mail: massarotti@cib.na.cnr.it
  51146.  
  51147.  
  51148. Symposium Chair:
  51149. Mario Mango Furnari 
  51150. Istituto di Cibernetica
  51151. Via Toiano, 6
  51152. I-80072 - Arco Felice (Naples, Italy)
  51153. Phone: +39-81-853-4229 
  51154. Fax:   +39-81-526-7654
  51155. E-mail: furnari@cib.na.cnr.it
  51156.  
  51157. Secretariat:
  51158. A. Mazzarella, 
  51159. C. Di Napoli
  51160. Istituto di Cibernetica    
  51161. Via Toiano, 6
  51162. I-80072 - Arco Felice (Naples, Italy)
  51163. Phone: +39-81-853-4123 
  51164. Fax:   +39-81-526-7654
  51165. E-mail: secyann@cib.na.cnr.it
  51166.  
  51167.  
  51168. IMPORTANT DATES:
  51169.  
  51170. Paper Submission Deadline:    January 15, 1994
  51171. Tutorial proposals due:        January 15, 1994
  51172. Systems fair presentation due:    January 15, 1994
  51173. Acceptance letter sent:        April   30, 1994
  51174. Camera ready copies due:    May     31, 1994
  51175.  
  51176.  
  51177.  
  51178. Approved: parallel@hubcap.clemson.edu
  51179. Follow-up: comp.parallel
  51180. Path: bounce-back
  51181. Newsgroups: comp.parallel
  51182. From: jeff@is.s.u-tokyo.ac.jp (Jeff McAffer)
  51183. Subject: Request for Data
  51184. Reply-To: jeff@is.s.u-tokyo.ac.jp
  51185. Organization: University of Tokyo / Object Technology International
  51186. Sender: news@tja.is.s.u-tokyo.ac.jp (Usenet News System)
  51187. Date: Tue, 21 Dec 1993 07:21:39 GMT
  51188. X-Bytes: 1145
  51189. Apparently-To: comp-parallel@UUNET.UU.NET
  51190.  
  51191. I am working on a set of tools for analysing the behaviour of
  51192. concurrent (parallel or distributed) systems but am sadly lacking in
  51193. data/applications to analyze.  I am wondering if you would be
  51194. willing to make your data available to me.
  51195.  
  51196. I'm interested in all kinds of data.  Primarily things like event
  51197. traces but anything you gather and YOU think is interesting in
  51198. understanding YOUR system is interesting to me.  I will try and
  51199. incorporate/develop analysis techniques to suit.
  51200.  
  51201. The data can be in any format though something at least semi-standard
  51202. is appreciated.  In particular, Pablo or ParaGraph (though didn't they
  51203. switch to the Pablo format?) are good.  If it is just your hacked
  51204. trace output that's fine too as long as you can supply a description
  51205. or code.
  51206.  
  51207. Of course, I would tell you anything I find out about your system but
  51208. at this point I can't promise any thing in terms of turnaround time
  51209. and or quality/depth of the results.  Think of it as an investment in
  51210. future coding efforts since hopefully you will be contributing to the
  51211. creation of a useful toolset.
  51212.  
  51213. Thanks
  51214.  
  51215. Jeff McAffer
  51216.  
  51217. --
  51218. ato de, |m        -- Real facts, real cheap!
  51219.  
  51220. Approved: parallel@hubcap.clemson.edu
  51221. Follow-up: comp.parallel
  51222. Path: bounce-back
  51223. Newsgroups: comp.theory,comp.parallel
  51224. From: Michael Fourman <mikef@dcs.ed.ac.uk>
  51225. Subject: Lectureship in Computer Science, University of Edinburgh
  51226. Sender: UseNet News Admin <cnews@dcs.ed.ac.uk>
  51227. Organization: Department of Computer Science, University of Edinburgh
  51228. Date: Tue, 21 Dec 1993 11:02:30 GMT
  51229. Apparently-To: comp-parallel@uknet.ac.uk
  51230.  
  51231.  
  51232.         University of Edinburgh
  51233.  
  51234.                Lectureship
  51235.  
  51236.  
  51237. Applications are invited for a five-year lectureship available from
  51238. January 1994.  Applicants should be qualified to Ph.D. level and
  51239. should be able to teach across a range of topics and levels (including
  51240. first-year)within the subject.  For this post, preference will be
  51241. given to candidates with research interests in algorithms and
  51242. complexity, but candidates with excellent records in other areas are
  51243. also encouraged to apply. A number of other temporary posts may become
  51244. available during the next 18 months; applications submitted now
  51245. will also be considered for these posts.
  51246.  
  51247. The successful candidate will be expected to strengthen existing
  51248. research in the Department which currently has major interests in in a
  51249. broad range of theoretical topics through the work of the Laboratory
  51250. for Foundations of Computer Science (LFCS), and in parallel computing
  51251. through its links with the Edinburgh Parallel Computing Centre (EPCC),
  51252. and a small but internationally renowned group working in
  51253. computational complexity.  The successful candidate must be prepared
  51254. to contribute to teaching at all levels and will be expected to carry
  51255. out fundamental research.
  51256.  
  51257. The Department has a very high reputation for the quality of both its
  51258. teaching and research, and has excellent facilities which include over
  51259. 250 workstationms and access to a Connection Machine and a Meiko
  51260. Computing Surface in EPCC.  The existing staff complement consists of
  51261. 26 lecturing staff (including 5 professors) and over 20 research
  51262. workers, supported by computing officers, technical and secretarial
  51263. staff.
  51264.  
  51265. Initial salary will be on the Lecturer A scale #13,601 - 18,855 with
  51266. placement according to age, qualifications and experience.
  51267.  
  51268. Further particulars may be obtained by writing to :
  51269.  
  51270.     The Personnel Office
  51271.     University of Edinburgh
  51272.     1 Roxburgh Street
  51273.     Edinburgh
  51274.     EH8 9TB
  51275.  
  51276. to whom applications should be sent before the closing date of 1st
  51277. February 1994, or by e-mail from Cindy McGill <lmm@dcs.ed.co.uk>.
  51278.  
  51279. -- 
  51280. -------------------------------------------------------------------------------
  51281. Prof. Michael P. Fourman, Laboratory for Foundations of Computer Science,
  51282. University of Edinburgh, Scotland, UK.  email:Michael.Fourman@lfcs.ed.ac.uk
  51283.  
  51284. Newsgroups: uk.events,uk.announce,comp.sys.transputer,news.announce.conferences
  51285. Sender: news@unixfe.rl.ac.uk
  51286. To: comp-parallel@uunet.UU.NET
  51287. Path: usenet
  51288. From: andrew@inf.rl.ac.uk (Andrew McDermott)
  51289. Subject: WTC '94 CALL FOR PAPERS
  51290. Date: 17 Dec 1993 12:07:26 GMT
  51291. Organization: RAL, Chilton, Didcot, England
  51292. Reply-To: sch@inf.rl.ac.uk
  51293. Nntp-Posting-Host: cork.inf.rl.ac.uk
  51294.  
  51295. WTC '94
  51296.  
  51297. CALL FOR PAPERS AND TUTORIAL PROPOSALS
  51298.  
  51299. Villa Erba, Cernobbio, Lake Como, Italy
  51300.  
  51301. 5 - 7 September, 1994
  51302.  
  51303. The Transputer Consortium (TTC) is pleased to announce that the WORLD 
  51304. TRANSPUTER CONGRESS 1994 (WTC '94) will be held on 5 - 7 September 
  51305. 1994 at the Villa Erba, Cernobbio, Lake Como, Italy . WTC '94 is the
  51306. leading international transputer conference and exhibition and is the
  51307. second in a series sponsored by and run under the overall management of
  51308. TTC. SGS-Thomson is also sponsoring WTC '94.
  51309.  
  51310. It is planned that each year WTC will be held in conjunction with a local
  51311. partner. For the first, highly successful, WTC '93, the local partner was
  51312. the German Transputer-Anwender-Treffen (TAT) conference. WTC '93, held at
  51313. the Eurogress Conference Centre in Aachen, Germany,  attracted 475
  51314. delegates from 32 countries worldwide. WTC '94 will be held in conjunction
  51315. with the Italian Transputer User Group (ItTUG), which is due to be formed
  51316. in early 1994. WTC '94 will incorporate the Inaugural Meeting of ItTUG.
  51317.  
  51318. WTC '94 will be the first major conference where significant applications of 
  51319. the new T9000 transputer and its associated technologies (e.g. packet routers) 
  51320. will be extensively reported. 
  51321.  
  51322. OBJECTIVES
  51323.  
  51324. *    present `state-of-the-art' research on all aspects of parallel 
  51325.     computing based upon communicating process architectures; 
  51326.  
  51327. *    to demonstrate `state-of-the-art' products and applications from 
  51328.     as wide a range of fields as possible;
  51329.  
  51330. *    to progress the establishment of international software and 
  51331.     hardware standards for parallel computing systems; 
  51332.  
  51333. *    to provide a forum for the free exchange of ideas, criticism and 
  51334.     information from a world audience gathered from Industry, 
  51335.     Commerce and Academia;
  51336.  
  51337. *    to promote an awareness of how transputer technologies may be 
  51338.     applied and their advantages over other sequential and parallel
  51339.     processors;
  51340.  
  51341. *    to establish and encourage an understanding of the new software 
  51342.     and hardware technologies enabled by the transputer, especially the 
  51343.     new T9000 processor and C104 packet router from INMOS, the 
  51344.     parallel DSP engines from Texas Instruments, and new products 
  51345.     from Intel and other manufacturers.
  51346.  
  51347. The conference themes will include: education and training issues, formal 
  51348. methods and security, performance and scalability, porting existing systems, 
  51349. parallelisation paradigms, tools, programming languages, support 
  51350. environments, standards and applications. 
  51351.  
  51352. Applications include: embedded real-time control systems, workstations, 
  51353. super-computing, consumer products, artificial intelligence, databases, 
  51354. modelling, design, data gathering and the testing of scientific or mathematical 
  51355. theories. 
  51356.  
  51357. BACKGROUND
  51358.  
  51359. The World Transputer Congress (WTC) series was formed in 1992 from the 
  51360. merger of the TRANSPUTING series of conferences, organised by the 
  51361. worldwide occam and Transputer User Groups, and the TRANSPUTER 
  51362. APPLICATIONS series of conferences, organised by the UK SERC/DTI 
  51363. Transputer Initiative.
  51364.  
  51365. WTC '93 attracted a large and enthusiastic audience from the majority of 
  51366. countries where transputer technology is accepted and/or parallel processing 
  51367. is seen as the key to meeting future computing demands. There is clearly a 
  51368. continuing, and growing, interest and commitment to this technology which 
  51369. will rely on the WTC series to maintain the vital information flow. It is 
  51370. reasonable to assume that it has already established itself as the leading 
  51371. conference in this important area. The successes of its predecessors has been a 
  51372. major factor in this. The continuing and vital support of TTC and the large 
  51373. number of User Groups from around the world will ensure a continuing 
  51374. success story for WTC.
  51375.  
  51376. FORMAT
  51377.  
  51378. The format adopted for WTC '93 will be continued at WTC '94. There will be a 
  51379. mix of Plenary Sessions, with Keynote and Invited Speakers from around the 
  51380. world, and Parallel Sessions, one of which will be organised by ItTUG. The 
  51381. exact number of Parallel Streams will be dependent on the quality of papers 
  51382. submitted against this Call for Papers. 
  51383.  
  51384. LOCATION
  51385.  
  51386. WTC '94 will be held at the Villa Erba Conference and Exhibition Centre, 
  51387. Cernobbio, Lake Como, Italy.  Cernobbio is 4KM from Como. The modern 
  51388. complex offers unique conference and exhibition facilities providing a main 
  51389. conference hall, meeting rooms and reception halls together with an 
  51390. exhibition area which can be divided into a maximum of 280 stands. It is set 
  51391. in the beautiful landscaped grounds of the Villa Erba on the shores of the 
  51392. lake. The Mannerist style Villa, with its steps down to the lake, was built in 
  51393. 1892 and is of both historic and artistic importance.
  51394.  
  51395. ACCOMMODATION
  51396.  
  51397. A range of hotel accommodation (2*, 3* and 4*) has been reserved for WTC '94  
  51398. in Cernobbio and Como. The majority of these hotels are within easy walking 
  51399. distance of the Villa Erba. However there is a limit to the total number of 
  51400. rooms available in the town, so early booking is recommended. Details will 
  51401. be sent, as soon as they are available, to all people who register their
  51402. interest 
  51403. in WTC '94 by returning the reply slip at the end of this announcement.
  51404.  
  51405. GETTING THERE
  51406.  
  51407. Como has excellent air, rail and road access, being within easy reach of two 
  51408. international airports, the main motorways and the trans-European rail 
  51409. networks. The two International Airports are Milan (Linate) and Lugano 
  51410. (Agno). Although many more international flights arrive at Milan, special 
  51411. arrangements are  being negotiated with Crossair for flights to and from 
  51412. Lugano. Crossair flights connect with international flights at many major
  51413. European airports. Travelling times by road to Como are 20 minutes from
  51414. Milan and 15 minutes from Lugano. Buses will be provided for delegates,
  51415. serving both airports. There is a frequent rail service from Milan to Como
  51416. and regular buses from Como to Cernobbio. Fuller details will be sent, as
  51417. soon as they are available, to people who register their interest in WTC
  51418. '94.
  51419.  
  51420. EXHIBITION
  51421.  
  51422. An associated exhibition attracting the world's leading suppliers of 
  51423. transputer-based and other relevant hardware, software and application 
  51424. products will be held at the Villa Erba Exhibition Centre. The WTC '93 
  51425. Exhibition was viewed as a great success by both exhibitors and participants 
  51426. alike and attracted a large number of visitors. Companies and other 
  51427. organisations wishing to exhibit at the WORLD TRANSPUTER CONGRESS 
  51428. 1994 should contact one of the Committee members listed at the end of this 
  51429. announcement. Opportunities will also exist for posters and demonstrations 
  51430. of academic achievements. 
  51431.  
  51432. CALL FOR PAPERS
  51433.  
  51434. The conference programme will contain invited papers from established 
  51435. international authorities together with submitted papers. The International 
  51436. Programme Committee, presided over by Ing. A De Gloria (University of 
  51437. Genoa), Dr S C Hilton (TTC), Dr M R Jane (TTC), Dr D Marini (University of 
  51438. Milan) and Professor P H Welch (WoTUG), is now soliciting papers on all 
  51439. areas described above. All papers will be fully refereed in their final form. 
  51440. Only papers of high excellence will be accepted. The proceedings of this 
  51441. conference will be published internationally by IOS Press and will be issued 
  51442. to delegates as they register at the  meeting.
  51443.  
  51444. BEST PAPER AWARD
  51445.  
  51446. The award for the best paper (worth approximately #500) will be based on 
  51447. both the submitted full paper for refereeing and the actual presentation at the 
  51448. Conference. Members of the Programme Committee will be the judges and 
  51449. their decision will be final. The winner will be announced and the 
  51450. presentation made in the final Closing Session on Wednesday, 7 September.
  51451.  
  51452. PROGRAMME COMMITTEE MEMBERS
  51453.  
  51454. The Programme Committee consists of invited experts from Industry and 
  51455. Academia, together with existing members from the joint organising user-
  51456. groups based in Australia, France, Germany, Hungary, India, Italy, Japan, 
  51457. Latin America, New Zealand, North America, Scandinavia and the United 
  51458. Kingdom.
  51459.  
  51460. The refereeing will be spread around the world to ensure that all points of 
  51461. view and expertise are properly represented and to obtain the highest 
  51462. standards of excellence.
  51463.  
  51464. INSTRUCTIONS TO AUTHORS
  51465.  
  51466. Four copies of submitted papers (not exceeding 16 pages, single-spaced, A4 or 
  51467. US 'letter') must reach the Committee member on the contact list below who
  51468. is closest to you by 1 March 1994. Authors will be notified of acceptance
  51469. by 24 May 1994. Camera-ready copy must be delivered by 23 June 1994, to
  51470. ensure inclusion in the proceedings.
  51471.  
  51472. A submitted paper should be a draft version of the final camera-ready copy. It 
  51473. should contain most of the information, qualitative and quantitative, that will 
  51474. appear in the final paper - i.e. it should not be just an extended abstract. 
  51475.  
  51476. CALL FOR TUTORIALS AND WORKSHOPS
  51477.  
  51478. Before the World Transputer Congress 1994, we shall be holding tutorials on 
  51479. the fundamental principles underlying transputer technologies, the design 
  51480. paradigms for exploiting them, and workshops that will focus directly on a 
  51481. range of specialist themes (e.g. real-time issues, formal methods, AI, image 
  51482. processing ..). The tutorials will be held on 3 - 4 September 1994 in the
  51483. Villa Erba itself.
  51484.  
  51485. We welcome suggestions from the community of particular themes that 
  51486. should be chosen for these tutorials and workshops. In particular, we 
  51487. welcome proposals from any group that wishes to run such a tutorial or 
  51488. workshop. A submission should outline the aims and objectives of the 
  51489. tutorial, give details of the proposed programme, anticipated numbers of 
  51490. participants attending (minimum and maximum) and equipment (if any) 
  51491. needed for support. Please submit your suggestions or proposals to one of the 
  51492. Committee members listed below by 1 March 1994. 
  51493.  
  51494. DELIVERY AND CONTACT POINTS
  51495.  
  51496. Dr Mike Jane, The Transputer Consortium, Informatics Department, 
  51497. Rutherford Appleton Laboratory, Chilton, Didcot, Oxon OX11 0QX, UK 
  51498. Phone: +44 235 445408; Fax: +44 235 445893; email: mrj@inf.rl.ac.uk
  51499.  
  51500. Dr Daniele Marini, Department of Computer Science, University of Milan, Via 
  51501. Comelico,39, Milan 20135, ITALY.
  51502. Phone: +39 2 5500 6358; Fax: +39 2 5500 6334
  51503. email:marini@imiucca.csi.unimi.it
  51504.  
  51505. Mr David Fielding, Chair, NATUG, Cornell Information Technologies, 502 
  51506. Olin Library, Cornell University, Ithaca NY 14853, USA 
  51507. Phone: +1 607 255 9098; Fax: +1 607 255 9346
  51508. email: fielding@library.cornell.edu
  51509.  
  51510. Dr Kuninobu Tanno,
  51511. Department of Electrical and Information Engineering, Yamagata University, 
  51512. Yonezawa, Yamagata 992, JAPAN 
  51513. Phone: +81 238 22 5181; Fax: +81 238 26 2082 
  51514. email: tanno@eie.yamagata-u.ac.jp
  51515.  
  51516. Mr John Hulskamp, Department of Computer Systems Engineering, RMIT, G.P.O.
  51517. Box 2476V, Melbourne, 3001 AUSTRALIA 
  51518. Phone: +61 3 660 5310 ; Fax: +61 3 660 5340; email: jph@rmit.edu.au
  51519.  
  51520. Dr Rafael Lins, Chair, OUG-LA, Department de Informatica, UFPE - CCEN, 
  51521. Cidade Universitaria, Recife - 50739 PE BRAZIL 
  51522. Phone: +55 81 2718430; Fax: +55 81 2710359; email: rdl@di.ufpe.br
  51523.  
  51524. FOR FURTHER INFORMATION PLEASE CONTACT:
  51525.  
  51526. Dr Susan C Hilton
  51527. Building R1
  51528. Rutherford Appleton Laboratory
  51529. CHILTON, 
  51530. DIDCOT, 
  51531. OXON. OX11 0QX
  51532. UK
  51533.  
  51534. Phone: +44 235 446154
  51535. Fax: +44 235 445893
  51536. email sch@inf.rl.ac.uk
  51537.  
  51538.  
  51539.  
  51540.  
  51541.  
  51542.  
  51543. Newsgroups: comp.parallel.pvm,comp.sys.super,comp.sys.dec,comp.sys.intel,comp.sys.convex,comp.unix.cray
  51544. To: comp-parallel@uunet.UU.NET
  51545. Path: digex.net!not-for-mail
  51546. From: marc@access.digex.net (Marc E. Cotnoir)
  51547. Subject: Codes ported for message passing???
  51548. Date: 19 Dec 1993 21:43:44 -0500
  51549. Organization: Express Access Online Communications, Greenbelt, MD USA
  51550.  
  51551.  
  51552.  
  51553.  
  51554.  
  51555. There has been much discussion about the implementation and comparative
  51556. performance of message passing systems such as CHAMELEON, p4, PVM, PARMACS and
  51557. (soon-to-be) MPI, for the development of parallel programs on multi-processor
  51558. systems and clustered workstations. 
  51559.  
  51560. But how many real codes are being or have been of ported to these 
  51561. environments?
  51562.  
  51563. I am thinking specifically of widely used codes for applications such 
  51564. as finite element, molecular modelling, cfd and such.
  51565.  
  51566. If you are currently involved in such porting work, or know of centers where
  51567. these activities are on-going, I'd like to receive this information. 
  51568.  
  51569. Please forward details regarding what codes are being (or have been)
  51570. ported, which message passing system is used and the sites or contact
  51571. details where this work is going on (if known). 
  51572.  
  51573. Please email to the address below and if the response is high I will 
  51574. summarize to this newsgroup.
  51575.  
  51576. Thanks in advance for your help.
  51577.  
  51578. Regards
  51579.  
  51580. Marc
  51581. marc@access.digex.net
  51582.  
  51583. Newsgroups: comp.os.linux.announce,tum.info.soft,tum.soft,comp.parallel
  51584. Path: pleierc
  51585. From: pleierc@Informatik.TU-Muenchen.DE (Christoph Pleier)
  51586. To: comp-parallel@news.Germany.EU.net
  51587. Subject: Distributed C Development Environment now available for LINUX and UNICOS
  51588. Keywords: distributed programming, parallel programming, Distributed C
  51589. Originator: pleierc@hpeick9.informatik.tu-muenchen.de
  51590. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  51591. Organization: Technische Universitaet Muenchen, Germany
  51592. Date:     Mon, 20 Dec 1993 14:30:25 +0100
  51593.  
  51594.  
  51595. Distributed C Development Environment now available for LINUX and UNICOS
  51596.  
  51597. The Distributed C Development Environment is now available for
  51598. AT 386/486 running LINUX and for Cray supercomputers running UNICOS. 
  51599. The environment is stored at ftp.informatik.tu-muenchen.de in the 
  51600. directory /local/lehrstuhl/eickel/Distributed_C. You can get it by
  51601. anonymous ftp.
  51602.  
  51603. -----
  51604.  
  51605. The Distributed C Development Environment was developed at Technische
  51606. Universitaet Muenchen, Germany, at the chair of Prof. Dr. J. Eickel and is 
  51607. a collection of tools for parallel and distributed programming on single-
  51608. processor-, multiprocessor- and distributed-UNIX-systems, especially on 
  51609. heterogenous networks of UNIX computers. The environment's main purpose 
  51610. is to support and to simplify the development of distributed applications 
  51611. on UNIX networks. It consists of a compiler for a distributed programming
  51612. language, called Distributed C, a runtime library and several useful tools.
  51613.  
  51614. The programming model is based on explicit concurrency specification in the 
  51615. programming language DISTRIBUTED C, which is an extension of standard C. 
  51616. The language constructs were mainly taken from the language CONCURRENT C
  51617. developed by N. Gehani and W. D. Roome and are based on the concepts for
  51618. parallel programming implemented in the language ADA. Distributed C makes 
  51619. possible the common programming in C together with the user-friendly 
  51620. programming of process management, i. e. the specification, creation, 
  51621. synchronization, communication and termination of concurrently executed 
  51622. processes.
  51623.  
  51624. The Distributed C Development Environment supports and simplifies the dis-
  51625. tributed programming in several ways:
  51626.  
  51627.     o Development time is reduced by checking Distributed C programs for
  51628.       errors during compilation. Because of that, errors within communication
  51629.       or synchronization actions can be easier detected and avoided.
  51630.     o Programming is simplified by allowing the use of simple pointer types
  51631.       even on loosely-coupled systems. This is perhaps the most powerful
  51632.       feature of Distributed C. In this way, dynamic structures like chained
  51633.       lists or trees can be passed between processes elegantly and easily -
  51634.       even in heterogeneous networks. Only the anchor of a dynamic structure
  51635.       must be passed to another process. The runtime system automatically
  51636.       allocates heap space and copies the complete structure.
  51637.     o Developement is user-friendly by supporting the generation and 
  51638.       installation of the executable files. A special concept was developed
  51639.       for performing the generation and storage of binaries by local and
  51640.       remote compilation in heterogeneous UNIX-networks.
  51641.     o Programming difficulty is reduced by software-aided allocating processes
  51642.       at runtime. Only the system administrator needs to have special knowledge
  51643.       about the target system's hardware. The user can apply tools to map the
  51644.       processes of a Distributed C program to the hosts of a concrete target
  51645.       system.
  51646.     o Execution time is reduced by allocating processes to nodes of a network
  51647.       with a static load balancing strategy.
  51648.     o Programming is simplified because singleprocessor-, multiprocessor- and
  51649.       distributed-UNIX-systems, especially homogeneous and heterogeneous UNIX-
  51650.       networks can be programmed fully transparently in Distributed C.
  51651.  
  51652. The Distributed C Development Environment consists mainly of the tools:
  51653.  
  51654.     o Distributed C compiler (dcc): 
  51655.       compiles Distributed C to standard C.
  51656.     o Distributed C runtime library (dcc.a): 
  51657.       contains routines for process creation, synchonization, ...
  51658.     o Distributed C administration process (dcadmin):
  51659.       realizes special runtime features.
  51660.     o Distributed C installer program (dcinstall): 
  51661.       performes the generation and storage of binaries by local 
  51662.       and remote compilation in heterogeneous UNIX-networks.
  51663.  
  51664. The environment runs on the following systems:
  51665.  
  51666.     o Sun SPARCstations (SunOS), 
  51667.     o Hewlett Packard workstations (HP/UX),
  51668.     o IBM workstations (AIX), 
  51669.     o IBM ATs (SCO XENIX, SCO UNIX, LINUX),
  51670.     o Convex supercomputers (ConvexOS),
  51671.     o Cray supercomputers (Unicos),
  51672.     o homogeneous and heterogeneous networks of the systems as mentioned above.
  51673.  
  51674. Moreover the implementation was designed for the use on Intel iPSC/2s. 
  51675.  
  51676. The Distributed C Development Environment source code is provided "as is" 
  51677. as free software and distributed in the hope that it will be useful,
  51678. but without warranty of any kind.
  51679.  
  51680. -- 
  51681.  
  51682. Christoph Pleier
  51683.  
  51684. pleierc@informatik.tu-muenchen.de
  51685.  
  51686.  
  51687. Approved: parallel@hubcap.clemson.edu
  51688. Follow-up: comp.parallel
  51689. Path: bounce-back
  51690. Newsgroups: comp.parallel
  51691. From: janr@fwi.uva.nl (Jan de Ronde)
  51692. Subject: Hockney's f(1/2)
  51693. Date: 21 Dec 1993 15:57:41 GMT
  51694. Organization: FWI, University of Amsterdam
  51695. Nntp-Posting-Host: wendy.fwi.uva.nl
  51696. Summary: How to derive r(inf) and n(1/2) arithmetic - memory refer. non overlaap
  51697. Keywords: characterization of performance
  51698.  
  51699. Dear all, 
  51700.  
  51701. I'm currently reading various articles of Roger Hockney all
  51702. concerning the performance characterization using n(1/2), etc... Including the 
  51703. book PARALLEL Computers 2.  
  51704.  
  51705. I'm looking for the derivation of the forms for the r(infinity) and n(1/2)
  51706. for an arithmetic pipeline in which the peak performance cannot be realized
  51707. due to the data transfer to and from memory. 
  51708.  
  51709. The situation of a memory bottleneck can be approximately modelled by    
  51710. considering a memory acces pipeline desribed by the parameters (r(inf)m, n(1/2)m)feeding data to a local memory, from which an arithmetic pipeline operates 
  51711. described by the parameters (r(inf)a, n(1/2)a).     
  51712.  
  51713. He says that when one is intersted in the average performance (r(inf), n(1/2))
  51714. of the combined memory and arithmetic pipeline, and it is not possible to 
  51715. overlap memory transfers with arithmetic, a little algebra shows that: 
  51716.  
  51717. r(inf)= r(inf)a/(1+f(1/2)/f) = r(peak) pipe (f/f(1/2))  and
  51718.  
  51719. n(1/2)= (n(1/2)m + x  n(1/2)a)/ (1+x) 
  51720.  
  51721. where r(peak) = r(inf)a
  51722.       f(1/2)  = r(inf)a/r(inf)m 
  51723.  
  51724.       x = f/f(1/2)
  51725.  
  51726. Is there anyone who has written this out entirely? Or knows how to? 
  51727.  
  51728. I would be grateful for response on this subject. 
  51729.  
  51730. Jan de Ronde, 
  51731. University of Amsterdam. 
  51732. Literature: 
  51733.  
  51734. Parameterization of Computer performance: R.W. Hockney, Parallel Computing (5)
  51735.                       1987, North Holland
  51736.  
  51737. Parallel Computers 2 : Hockney and Jesshope (1988)  (Book )
  51738.  
  51739.  
  51740. Approved: parallel@hubcap.clemson.edu
  51741. Follow-up: comp.parallel
  51742. Path: bounce-back
  51743. Newsgroups: comp.parallel
  51744. From: dowd@acsu.buffalo.edu (Patrick Dowd)
  51745. Subject: Advance Program - MASCOTS94
  51746. Originator: dowd@mangrove.eng.buffalo.edu
  51747. Keywords: MASCOTS94
  51748. Sender: nntp@acsu.buffalo.edu
  51749. Nntp-Posting-Host: mangrove.eng.buffalo.edu
  51750. Reply-To: dowd@eng.buffalo.edu
  51751. Organization: State University of New York at Buffalo
  51752. Date: Tue, 21 Dec 1993 22:11:16 GMT
  51753. Apparently-To: comp-parallel@cis.ohio-state.edu
  51754.  
  51755.  
  51756.  
  51757.  
  51758. Attached below the advance program  of MASCOTS'94  which will be  held
  51759. January 31 - February 2, 1994 in Durham, NC.
  51760.  
  51761. The conference will be held in the Washington Duke  Inn and Golf Club.
  51762. Note that  hotel reservations  must  be  made  prior  to January  5 to
  51763. guarantee  reservations  at  the low  conference rate of $80/day.  The
  51764. hotel  telephone  numbers  are  +1.919.490.0999   or  +1.800.443.3853.
  51765. Conference  registration information is included at  the end  of  this
  51766. note,  or contact Margrid Krueger at  mak@ee.duke.edu  for  additional
  51767. registration information
  51768.  
  51769.  
  51770.  
  51771. ----------------------------------------------------------------------
  51772.  
  51773.                    
  51774.        International Workshop on Modeling, Analysis and
  51775.     Simulation of Computer and Telecommunications Systems
  51776.                 (MASCOTS '94)
  51777.                    
  51778.                Advance Program
  51779.           Registration and Hotel Information
  51780.                    
  51781.       Cosponsored by the IEEE (Computer Society, TCCA,  TCSIM)
  51782.       In Cooperation with the ACM (SIGSIM, SIGARCH, SIGMETRICS)
  51783.                IFIP WG 7.3, and
  51784.                  SCS
  51785.                    
  51786.              January 31-February 2, 1994
  51787.           Washington Duke Inn and Golf Club
  51788.               Durham, N.C. 27706
  51789.             (919)490-0999 or (800)443-3853
  51790.  
  51791.         
  51792.            
  51793. Monday January 31, 1994
  51794. =======================
  51795.  
  51796.  
  51797. Welcome Address from General and Program Chairs (8:00 - 8:15AM)
  51798.  
  51799.  
  51800. Session 1a: Computer Systems
  51801. Chair:  D. Schimmel, Georgia Tech
  51802. Allen Room (8:15 - 9:35AM)
  51803.     "Trace-Driven Simulation of Data-Alignment and Other Factors
  51804.      Affecting Update and Invalidate Based Coherent Memory,"     
  51805.         E.P. Markatos and C.E. Chronaki
  51806.     "On Predictablility of Caches for Real-Time Applications,"        
  51807.         J-C. Liu and S.M. Shahrier
  51808.     "Evaluation of Write-Back Caches for Multiple Block-Sizes,"       
  51809.         Y. Wu
  51810.     "Modeling Power Management for Hard Disks,"                       
  51811.         P.M. Greenawalt
  51812.  
  51813.  
  51814. Session 1b:  Computer Communications Networks
  51815. Chair:  P. Dowd, State University of New York at Buffalo
  51816. Duke Room (8:15 - 9:35AM)
  51817.     "Analytic  Models  and  Characteristics of  Video  Traffic in High
  51818.      Speed Networks," 
  51819.         A.W. Bragg and W. Chou
  51820.     "An Analysis of Space Priority Queueing in ATM Switches,"         
  51821.         K.L. Reid and R.B. Bunt
  51822.     "A Performance Study of Photonic Local Area Network Topologies,"  
  51823.         K.M. Sivalingam and P.W. Dowd
  51824.     "On the Interaction Between Gateway Scheduling and Routing,"   
  51825.         I. Matta and A.U. Shankar
  51826.  
  51827.  
  51828. Session 2a:  Computer Performance Modeling
  51829. Chair:  K. Trivedi, Duke University
  51830. Allen Room (9:50 - 11:10AM)
  51831.     "Approximate Analysis of a Multi-Class Open Queueing Network with
  51832.      Class Blocking and Push-out,"                        
  51833.         T. Atmaca, H.G. Perros, and Y. Dallery
  51834.     "Analytic Performance Estimation of Client-Server Systems with 
  51835.      Multi-Threaded Clients,"
  51836.         D.C. Petriu, S. Majumdar, J. Lin, and C. Hrischuk
  51837.     "A Case Study of Scientific Application I/O Behavior," 
  51838.         B.K. Pasquale and G.C. Polyzos
  51839.     "The Feasibility  of Using Compression  to Increase  Memory System
  51840.      Performance," 
  51841.         J. Wang and R.W. Quong
  51842.  
  51843.  
  51844. Session 2b:  Interconnection/Networks
  51845. Chair:  R. Fujimoto, Georgia Tech
  51846. Duke Room (9:50 - 11:10AM)
  51847.     "Design and Simulations of a Serial-Link Interconnection Network
  51848.      for a Massively Parallel Computer System,"
  51849.         H. Sharif, H. Vakilzadian, and H. Jiang
  51850.     "Modeling Adaptive Routing in k-ary n-cube Networks,"   
  51851.         W.A. Najjar, A. Lagman, S. Sur, and P.K. Srimani
  51852.     "Conflict Analysis of Multistage Interconnection Networks,"      
  51853.         Y.R. Potlapalli and D.P. Agrawal
  51854.     "Complete Exchange on a Wormhole Routed Mesh,"      
  51855.         R. Thakur, A. Choudhary, and G. Fox
  51856.  
  51857.  
  51858. Invited Talk 1
  51859. Duke Room (11:10 - 11:55AM) 
  51860.     "Distributed Simulation of Large-Scale PCS Networks,"          
  51861.         C.D. Carothers, R.M. Fujimoto, Y-B. Lin, and P. England
  51862.  
  51863.  
  51864. ---------------------------------------------------------------------  
  51865.  
  51866. Lunch (12:00 - 1:00PM)
  51867.  
  51868. ---------------------------------------------------------------------  
  51869.  
  51870.  
  51871. Session Tools T-1:  Simulation of Robotics and Process Control
  51872. Chair:  Thomas Braunl, University of Stuttgart, Germany
  51873. Duke Room (1:05 - 2:25PM)
  51874.     "From Simulation to Virtual Reality:  A Robotic Application,"
  51875.         M. Gerke, R. Dicken, and H. Hoyer
  51876.     "MCEMS Toolbox _ A Hardware-in-the-Loop Simulation Environment for 
  51877.      Mechatronic Systems,"                            
  51878.         H.-J. Herpel, M. Held, and M. Glesner
  51879.     "The 3d7-Simulation Environment:  A Tool for Autonomous Mobile 
  51880.      Robot Development,"
  51881.         R. Trieb and E. von Puttkamer
  51882.  
  51883.  
  51884. Session Tools T-2:  Architecture and Network Simulation
  51885. Chair:  Manu Thapar, Hewlett Packard Research Labs
  51886. Duke Room (2:35 - 3:55PM)
  51887.     "Hierarchical Architecture Design and Simulation Environment,"
  51888.         F.W. Howell, R. Williams, and R.N. Ibbett
  51889.     "Animated  Simulations  of Media Access  Protocols in  Local  Area
  51890.      Networks," 
  51891.         T. Uhl and J. Ulmer
  51892.     "BONeS  DESIGNER:  A   Graphical  Environment  for  Discrete-Event
  51893.      Modeling and Simulation,"
  51894.         S.J. Schaffer and W.W. LaRue
  51895.  
  51896.  
  51897. Session Tools T-3:  Performance Analysis and Debugging
  51898. Chairs:  Manu Thapar and Thomas Braunl, 
  51899.          H.P. Research Labs and U. Stuttgart, Germany
  51900. Duke Room (4:05 - 5:35PM)
  51901.     "A Toolkit for Advanced Performance Analysis,"     
  51902.         A. Waheed, B. Kronmuller, R. Sinha, and D.T. Rover
  51903.     "An Interactive Tool for Design, Simulation, Verification, and Synthesis 
  51904.      of Protocols,"
  51905.         D.Y. Chao and D.T. Wang
  51906.     "On-the-Fly Visualization and Debugging of Parallel Programs," 
  51907.         M.C. Hao, A.H. Karp, M. Mackey, V. Singh, and J. Chien
  51908.  
  51909.  
  51910. Session 3:  Performance Modeling and Simulation
  51911. Chair:  C. Andre,  Universite de Nice-Sophia Antipolis, France
  51912. Allen Room (4:05 - 5:35PM)
  51913.     "A  Matrix  Approach  to Performance  Data  Modeling, Analysis and
  51914.      Visualization,"  
  51915.         A. Waheed, B. Kronmuller, and D.T. Rover
  51916.     "FAST:  A Functional Algorithm Simulation Testbed,"      
  51917.         M.D. Dikaiakos, A. Rogers, and K. Steiglitz
  51918.     "Simulation of Temporal Behaviour Based on a Synchronous Language,"
  51919.         C. Andre and M.A. Peraldi
  51920.     "Xmgm:  Performance Modeling Using Matrix Geometric Techniques,"
  51921.         B.R. Haverkort, A.P.A. van Moorsel, D-J. Speelman
  51922.  
  51923.  
  51924. Posters Session
  51925. Chair:  V. Madisetti, Georgia Tech
  51926. Allen Room (1:00 - 3:00PM)
  51927.     "Experiment  and   Performance   Evaluation   of   a   Distributed
  51928.      Collaboration System," 
  51929.         L-T. Shen, G. Memmi, P. Petit, and P. Denimal
  51930.     "Trace-Driven and Program-Driven Simulation:  A Comparison,"    
  51931.         B.A. Malloy                         
  51932.     "Towards the Automatic Derivation of Computer Performance Models from the 
  51933.      Real Time and Embedded Systems Design,"                        
  51934.         R. Puigjaner and J. Szymanski
  51935.     "A Programmable Simulator for Analyzing the Block Data Flow Architecture,"
  51936.         S. Alexandre, W. Alexander, and D.S. Reeves
  51937.     "Colored Petri Net Methods for Performance Analysis of Scalable 
  51938.      High-Speed Interconnects,"
  51939.         L. Cherkasova, A. Davis, V. Kotov, and T. Rokicki
  51940.     "Detecting Latent Sector Faults in Modern SCSI Disks,"          
  51941.         H.H. Kari, H. Saikkonen, and F. Lombardi
  51942.     "Performance of Output-Multibuffered Multistage Interconnection
  51943.      Networks Under Non-Uniform Traffic Patterns,"                          
  51944.         B. Zhou and M. Atiquzzaman
  51945.     "Visualization of Network Performance Using the AVS Visualization System,"
  51946.         R.O. Cleaver and S.F. Midkiff
  51947.     "Coreference Detection in Automatic Analysis of Specifications,"
  51948.         S. Shankaranarayanan and W. Cyre
  51949.     "Visual Feedback for Validation of Informal Specifications,"    
  51950.         A. Thakar and W. Cyre
  51951.     "Discrete Time Open Queueing Networks with Feedback, Bulk Arrivals 
  51952.      and Services," 
  51953.         C. Vu Duy
  51954.     "A Maximum Entropy Analysis of the Single Server Queue,"        
  51955.         D. Frosch-Wilke and K. Natarajan
  51956.     "A Methodology for Generation and Collection of Multiprocessor Traces,"
  51957.         P.J. Bond, B.C. Kim, C.A. Lee, and D.E. Schimmel
  51958.     "IDtrace _ A Tracing Tool for i486 Simulation,"                
  51959.         J. Pierce and T. Mudge
  51960.     "Stochastic Bounds on Execution Times of Parallel Computations,"
  51961.         F. Lo Presti, M. Colajanni, and S. Tucci
  51962.  
  51963.  
  51964. Invited Talk 2
  51965. Allen Room (3:00 - 3:45PM)
  51966.     "TITLE: TBA," 
  51967.         Debasis Mitra 
  51968.  
  51969.  
  51970. Reception (7:30PM)
  51971. Duke/Allen Room
  51972.  
  51973.  
  51974.  
  51975. Tuesday February 1, 1994
  51976. ========================
  51977.  
  51978.  
  51979. Session 4a:  Multiprocessor Systems
  51980. Chair:  D.P. Agrawal, North Carolina State University
  51981. Allen Room (8:15 - 9:35AM)
  51982.     "Modeling Data Migration on CC-NUMA and CC-COMA Hierarchical 
  51983.      Ring Architectures,"
  51984.         X. Zhang and Y. Yan
  51985.     "ES:  A Tool for Predicting the Performance of Parallel Systems,"
  51986.         J.B. Sinclair and W.P. Dawkins
  51987.     "Performance of Multiple-Bus Multiprocessor under Non-Uniform  
  51988.      Memory Reference,"
  51989.         M.A. Sayeed and M. Atiquzzaman
  51990.     "VHDL Modeling  for  the  Performance  Evaluation of Multicomputer
  51991.      Networks,"    
  51992.         J.T. McHenry and S.F. Midkiff
  51993.  
  51994.  
  51995. Session 4b:  Tools and Interfaces
  51996. Chair:  B. Malloy, Clemson University
  51997. Duke Room  (8:15 - 9:35AM)
  51998.     "Scalability Analysis Tools for SPMD Message-Passing Parallel Programs,"  
  51999.         S.R. Sarukkai
  52000.     "Automated Modeling of Message-Passing Programs,"      
  52001.         P. Mehra, M. Gower, and M.A. Bass
  52002.     "A Flexible Graphical User Interface for Performance Modeling," 
  52003.         Y-B. Lin and D. Daly
  52004.  
  52005.  
  52006. Session 5a:  Efficient Simulation Mechanisms
  52007. Chair:  G. Kesidis, University of Waterloo, Canada
  52008. Allen Room (9:50 - 11:10AM)
  52009.     "MINT: A  Front  End  for  Efficient  Simulation of  Shared-Memory
  52010.      Multiprocessors," 
  52011.         J.E. Veenstra and R.J. Fowler
  52012.     "Analysis of Memory and Time Savings Using EC/DSIM,"             
  52013.         G. Hermannsson, A. Li, and L. Wittie
  52014.     "A Performance Study of the RPE Mechanism for PDES,"   
  52015.         J.E. Butler and V.E. Wallentine
  52016.  
  52017.  
  52018. Session 5b:  Network Simulation and Design
  52019. Chair:  K. Bagchi, Stanford University
  52020. Duke Room  (9:50 - 11:10AM)
  52021.     "Object-Oriented Modeling, Simulation and Implementation of a 
  52022.      Network Management System,"                        
  52023.         M. Beckers, J. Peeters, and F. Verboven
  52024.     "Synchronous Digital Hierarchy Network Modeling,"     
  52025.         H.L. Owen
  52026.     "The Knitting Technique and Its Application to Communication 
  52027.      Protocol Synthesis,"
  52028.         D.Y. Chao and D.T. Wang
  52029.     "Genetic Algorithm and Neural Network Approaches to Local Access 
  52030.      Network Design,"
  52031.         T. Routen
  52032.  
  52033.  
  52034. Invited Talk 3
  52035. Duke Room (11:10 - 11:55PM) 
  52036.     "Time Constrained Message Transmission in a LAN Environment,"   
  52037.         S.K. Tripathi and S. Mukherjee
  52038.  
  52039.  
  52040. ---------------------------------------------------------------------  
  52041.  
  52042. Lunch (12:00 - 1:00PM)
  52043.  
  52044. ---------------------------------------------------------------------  
  52045.  
  52046.  
  52047. Invited Talk 4
  52048. Duke  Room (1:10 - 2:00PM)
  52049.     "Evaluating  Memory  System  Performance  of  a  Large-Scale  NUMA
  52050.      Multiprocessor," 
  52051.         K. Harzallah and K.C. Sevcik
  52052.  
  52053. Panel Session 1
  52054. Duke Room (2:00 - 3:00PM)
  52055.     "Open Problems in Modeling, Simulation and Modeling of
  52056.      Communication Networks"
  52057.  
  52058. Panel Session 2
  52059. Allen Room (2:00 - 3:00PM)
  52060.     "Open Problems in Modeling Simulation and Analysis of
  52061.      Computer Systems"
  52062.  
  52063. Invited Talk 5
  52064. Duke  Room (3:00 - 3:45PM) 
  52065.     "Parallel Simulation of Markovian Queueing Networks,"           
  52066.         P. Heidelberger and D.M. Nicol
  52067.  
  52068. Invited Talk 6
  52069. Duke  Room (3:50 - 4:35PM)
  52070.     "Modeling, Performance Evaluation, and Ordinal Optimization of 
  52071.      Integrated Voice/Data Networks,"                          
  52072.         J.E. Wieselthier, C.M. Barnhart, and A. Ephremides
  52073.  
  52074. Invited Talk 7
  52075. Duke  Room (4:45 - 5:30PM)
  52076.     "TITLE: TBA," 
  52077.         John Tsitsiklis
  52078.  
  52079.  
  52080. Dinner (8:00PM)
  52081. Center Room
  52082. Invited Talk 8 (Over Dinner)
  52083.     "G-Networks with Multiple Class Negative and Positive Customers,"
  52084.         J.M. Fourneau, E. Gelenbe, and R. Suros
  52085.  
  52086.  
  52087.  
  52088. Wednesday February 2, 1994
  52089. ==========================
  52090.  
  52091. Session 6a:  Analytical Models and Solutions
  52092. Chair:  J. Walrand, University of California at Berkeley
  52093. Allen Room (8:15 - 9:35AM)
  52094.     "Dynamic Load Balancing in Distributed Systems,"        
  52095.         E. Gelenbe and R. Kushwaha
  52096.     "Adaptive Bidding Load Balancing Algorithms in Heterogeneous  
  52097.      Distributed Systems,"  
  52098.         Y. Zhang, H. Kameda, and K. Shimizu
  52099.     "On Solving Stochastic Coupling Matrices Arising in Iterative 
  52100.      Aggregation/Disaggregation Methods,"                  
  52101.         W.J. Stewart and A. Touzene
  52102.     "An Analytical Model for the Binary Feedback Scheme,"       
  52103.         W. Liu, B. Stephens, and E.K. Park
  52104.  
  52105.  
  52106. Session 6b:  Protocol Modeling and Simulation
  52107. Chair:  A. Bianco, Politecnico di Torino, Italy
  52108. Duke Room  (8:15 - 9:35AM)
  52109.     "Modeling and Evaluating  the DQDB Protocol with  Stochastic Timed
  52110.      Petri Nets," 
  52111.         R.L.R. Carmo and G. Juanole
  52112.     "Efficient Technique for Performance Analysis of Locking Protocols,"
  52113.         S.L. Hung, K.W. Lam, and K.Y. Lam
  52114.     "Visualization and Performance Analysis of Formally Specified
  52115.      Communication Protocols,"                            
  52116.         M. Walch, A. Wolisz, and J. Wolf-Gunther
  52117.     "Integrating Performance Analysis in the Context of LOTOS-Based Design," 
  52118.         M. Ajmone Marsan, A.  Bianco, L. Ciminiera,  R.  Sisto, and A.
  52119.         Valenzano 
  52120.  
  52121.  
  52122. Invited Talk 9
  52123.     "Markov Reward Approach to Performability and Reliability Analysis,"
  52124.     K.S. Trivedi, M. Malhotra, and R.M. Fricks
  52125. Duke  Room (9:50 - 10:35AM)
  52126.  
  52127.  
  52128. Session 7a:  Performance Analysis
  52129. Chair:  G. Juanole, LAAS-CNRS, France
  52130. Allen Room (10:40 - 12:00AM)
  52131.     "Performance Comparison Between TCP Slow-Start and a New Adaptive
  52132.      Rate-Based Congestion Avoidance Scheme,"                      
  52133.         L. Huynh, R-F. Chang, and W. Chou
  52134.     "Near-Critical Path Analysis of Program Activity Graphs," 
  52135.         C. Alexander, D. Reese, and J. Harden
  52136.     "Modeling to Obtain the Effective Bandwidth of a Traffic Source in
  52137.      an ATM Network,"                        
  52138.         G. Kesidis
  52139.     "A Comparison of Different Wormhole Routing Schemes," 
  52140.         Y-W. Lu, K. Bagchi, J.B. Burr, and A.M. Peterson
  52141.  
  52142.  
  52143. Session 7b:  Petri-Nets and Applications
  52144. Chair:  E. Gelenbe, Duke University
  52145. Duke Room (10:40 - 12:00AM)
  52146.     "An  Object Oriented  Approach  in  Building  an  Environment  for
  52147.      Simulation and Analysis Based on  Timed Petri Nets with  Multiple
  52148.      Execution Policies,"  
  52149.         G. Manduchi and M. Moro
  52150.     "Methodology for LAN Modeling and  Analysis Using Petri Nets Based
  52151.      Models," 
  52152.         N. Berge, M. Samaan, G. Juanole, and Y. Atamna
  52153.     "Simulation of Marked Graphs on SIMD Architectures Using Efficient 
  52154.      Memory Management,"
  52155.         H. Sellami, J.D. Allen, D.E. Schimmel, and S. Yalamanchili
  52156.       
  52157.  
  52158. ======================================================================
  52159.  
  52160. GENERAL CHAIRS
  52161.  
  52162. Erol Gelenbe                             Jean C. Walrand            
  52163. Electrical Engineering                   Electrical Engineering & CS
  52164. Duke University                          University of California
  52165. Durham, NC  27708-0291                   Berkeley, CA 94720 USA
  52166.  
  52167.  
  52168. PROGRAM CHAIR
  52169.  
  52170. Vijay K. Madisetti
  52171. School of Electrical Engineering
  52172. Georgia Institute of Technology
  52173. 777 Atlantic Drive
  52174. Atlanta, GA 30332-0250
  52175.  
  52176.  
  52177. TOOLS FAIR CHAIRS
  52178.  
  52179. Thomas Braunl                              Manu Thapar 
  52180. IPVR                                       HP Research Labs.
  52181. U Stuttgart, Breitwiesenstr. 20-22         1501 Page Mill Road
  52182. D-7000 Stuttgart 80, Germany               Palo Alto CA 94304, USA
  52183.  
  52184.  
  52185. PROGRAM COMMITTEE MEMBERS
  52186.  
  52187. Dharma Agrawal* (NCSU, USA)            Charlie Knadler (IBM Rockville, USA)
  52188. Kallol Bagchi* (AUC, Denmark)          Anup Kumar (U Louisville, USA)
  52189. Nader Bagherzadeh (UCI, USA)           Benny Lautrup (Bohr Institute, Denmark)
  52190. M. Bettaz (U Constantine, Algeria)     Darrell Long (UCSC, USA) 
  52191. Thomas Braunl (U Stuttgart, Germany)   Vijay Madisetti (Georgia Tech, USA)
  52192. Jim Burr (Stanford U, USA)             Guenter Mamier (U Stuttgart, Germany)
  52193. Tom Casavant (U Iowa, USA)             M Ajmone Marsan (Poly Torino, Italy)
  52194. Giovanni Chiola* (U Torino, Italy)     Ben Melamed (NEC Princeton, USA) 
  52195. Doug DeGroot* (TI, USA)                Tuncer Oren (U Ottawa, Canada)
  52196. Patrick Dowd* (SUNY-Buffalo, USA)      Mary Lou Padgett (Auburn U, USA)
  52197. Ed Deprettere (U Delft, Denmark)       Gerardo Rubino (INRIA, France)
  52198. Larry Dowdy (Vanderbilt U, USA)        Herb Schwetman* (MCC, USA)
  52199. Michel Dubois (USC, USA)               Alan J. Smith (UC Berkeley, USA)
  52200. Serge Fdida (U Rene Descartes, France) L. Spaanenburg (U Stuttgart, Germany)
  52201. Paul Fishwick (U Florida, USA)         Shreekant Thakkar (Sequent, USA)
  52202. Jean Fourneau (Lab-MASI, France)       Manu Thapar (HP Palo Alto, USA)
  52203. Rhys Francis (CSIRO, Australia)        Kishor Trivedi* (Duke U, USA)
  52204. Geoffrey Fox (Syracuse U, USA)         Hamid Vakilzadian (U Nebraska, USA)
  52205. Erol Gelenbe (Duke U, USA)             Jean Walrand (UC Berkeley, USA)
  52206. Mary Girard (MITRE Corp., USA)         Peter Wilke (U Erlangen, Germany)
  52207. Dave Harper (U Texas, USA)             Steve Winter (Poly. C. London, UK)
  52208. Mark Holliday (Duke U,USA)             Felix Wu (UC Berkeley, USA)
  52209. Bob Jump (Rice U, USA)                 Bernie Zeigler (U Arizona, USA)
  52210. Charlie Jung (IBM Kingston, USA)       George Zobrist (U Missouri-Rolla, USA)
  52211. George Kesidis (U Waterloo, Canada)
  52212. Gianfranco Ciardo (College William and Mary, USA)
  52213.  
  52214.             (* Steering Committee Member)
  52215.  
  52216.  
  52217. ======================================================================
  52218.                    
  52219.                    
  52220.               Registration Form
  52221.                   MASCOTS'94
  52222.              January 31-February 2, 1994
  52223.           Washington Duke Inn and Golf Club
  52224.               Durham, N.C. 27706
  52225.             (919) 490-0999, (800) 443-3853
  52226.                    
  52227. The registration fee of $300 includes the Proceedings published by the
  52228. IEEE Computer  Society Press, admission to tutorials,  the  conference
  52229. banquet,  and  coffee  breaks.   Student  registration  fee  is  $150.
  52230. Additional  copies  of   the  Proceedings  may  be  purchased  at  the
  52231. conference.
  52232.  
  52233. Pre-registered participants benefit from the special hotel rate of $80
  52234. per  night  at  the  elegant  Washington  Duke   Inn  and  Golf  Club.
  52235. Reservations must be received by  January 5 to obtain this  discounted
  52236. rate.  Mention MASCOTS'94 when you call the hotel  at  +1.919.490.0999
  52237. or +1.800.443.3853.
  52238.                
  52239.                      
  52240.                     
  52241.                    
  52242.               Please Return To:
  52243.                    
  52244.              Ms. Margrid Krueger
  52245.          Department of Electrical Engineering
  52246.                   Box 90291
  52247.                Duke University
  52248.                Durham, N.C. 27708-0291
  52249.                    
  52250.                     (or email at mak@ee.duke.edu)
  52251.  
  52252.  
  52253.  
  52254. Name: ................................................................*
  52255.  
  52256.  
  52257. Affiliation: .........................................................*
  52258.  
  52259.  
  52260. Address: .............................................................*
  52261.  
  52262. ......................................................................*
  52263.  
  52264. ......................................................................*
  52265.  
  52266. ......................................................................*
  52267.  
  52268. ......................................................................*
  52269.  
  52270.  
  52271. Email Address: .......................................................*
  52272.  
  52273.  
  52274. Telephone: ...........................................................*
  52275.  
  52276.  
  52277. Fax: .................................................................*
  52278.  
  52279.  
  52280. The registraqtion fee of $300 (by check drawn  on a U.S.  bank and made
  52281. out to Duke University), or $150 for students, should be enclosed.
  52282.  
  52283. ======================================================================
  52284.  
  52285. Approved: parallel@hubcap.clemson.edu
  52286. Follow-up: comp.parallel
  52287. Path: bounce-back
  52288. Newsgroups: comp.parallel
  52289. From: N. Branan <branan@SSD.intel.com>
  52290. Subject: APR News Release
  52291. Organization: Intel Supercomputer Systems Division
  52292.  
  52293. NEWS RELEASE
  52294.  
  52295. Applied Parallel Research, Inc.                 
  52296. 550 Main St., Suite I                                   
  52297. Placerville, CA 95667                           
  52298. Sales and Marketing                     
  52299. (301) 718-3733     Fax: (301) 718-3734          
  52300.  
  52301. FOR IMMEDIATE RELEASE
  52302.  
  52303. Applied Parallel Research is pleased to announce the signing of a
  52304. distribution 
  52305. agreement with Intel's Supercomputer Systems Division for the FORGE
  52306. family of 
  52307. Fortran parallelization products.
  52308.  
  52309. Placerville, California, USA, December 9, 1993   --   Applied Parallel
  52310. Research, 
  52311. Inc. (APR), and Intel!s Supercomputer Systems Division (SSD) have signed
  52312. an 
  52313. agreement whereby Intel SSD will offer APR's FORGE( family of distributed
  52314. memory 
  52315. Fortran parallelization tools for the Intel Paragon* and iPSC(/860 
  52316. supercomputers.  Under this agreement APR's products FORGE Explorer,
  52317. FORGE 
  52318. Distributed Memory Parallelizer (DMP), the FORGE HPF pre-compiler (xHPF)
  52319. and the 
  52320. newly announced FORGE Magic/DM automatic parallelization system will be 
  52321. available from Intel SSD.
  52322.  
  52323. Robert Enk, Vice President of Sales and Marketing for APR, stated, "We
  52324. are 
  52325. extremely pleased that Intel SSD has chosen to offer APR's products in 
  52326. conjunction with their line of supercomputer systems.   Given Intel SSD's 
  52327. significant customer base and market presence, this agreement greatly
  52328. enhances 
  52329. our ability to gain wide exposure and acceptance of our products.   We
  52330. feel that 
  52331. these tools will significantly enhance a programmer's ability to convert
  52332. and 
  52333. develop applications for the Paragon and iPSC/860 systems."
  52334.  
  52335. FORGE Explorer is a Motif based Fortran source code browser which
  52336. provides 
  52337. extensive interprocedural control flow and variable usage information as
  52338. well as 
  52339. context sensitive query functions.  
  52340.  
  52341. FORGE DMP and APR's newly announced FORGE Magic/DM are fully compatible 
  52342. interactive and batch parallelization tools.  Magic/DM is the first
  52343. production 
  52344. quality automatic parallelization tool available for distributed memory 
  52345. architectures. 
  52346.  
  52347. Another industry first is APR's HPF Compilation System - xHPF.  The xHPF
  52348. system 
  52349. currently supports the subset of Fortran 90 and HPF directives
  52350. recommended for 
  52351. early implementation by the High Performance Fortran Forum.  This product
  52352. has 
  52353. also been enhanced to provide for automatic parallelization of an
  52354. application 
  52355. and the optional generation of a source code file which has been
  52356. converted from 
  52357. Fortran 77 to the subset of Fortran 90 and HPF Directives defined in the
  52358. HPFF 
  52359. subset.  
  52360.  
  52361. Dr. Wilfred R. Pinfold, Director of Sales Support for Intel SSD, said,
  52362. "APR's 
  52363. FORGE family of products will provide users of Intel's Paragon and
  52364. iPSC/860 
  52365. systems with the most advanced set of Fortran conversion and development
  52366. tools 
  52367. available today.  The FORGE products give users the ability to
  52368. effectively 
  52369. distribute their application across multiple processors, and when used in 
  52370. conjunction with the Paragon message passing environment, allows users to
  52371. take 
  52372. advantage of the powerful Paragon architecture."
  52373.  
  52374. Intel's Supercomputer Systems Division has an installed base of over 400 
  52375. systems, and, according to International Data Corp., leads all other
  52376. vendors 
  52377. with a 38% share of the parallel supercomputer segment of the high
  52378. performance 
  52379. computing market.  Intel Supercomputers combine the companyUs advanced 
  52380. microprocessors with Intel's interconnect technology (Scalable Parallel 
  52381. Processing) and industry standard OSF/1AD MK operating system to deliver 
  52382. affordable, scalable systems.  Intel supercomputers are used throughout
  52383. the 
  52384. world for scientific, industrial and academic applications
  52385.  
  52386. Intel Corporation, the world's largest chip maker, is an international
  52387. manufacturer of microcomputer 
  52388. components, modules and systems.
  52389.  
  52390. Applied Parallel Research provides leading edge Fortran programming tools
  52391. and 
  52392. training to users of todayUs advanced parallel processing systems. 
  52393.  
  52394. iPSC is a registered trademark and Paragon is a trademark of Intel
  52395. Corporation.
  52396. FORGE is a registered trademark of Applied Parallel Research, Inc.
  52397.  
  52398. Approved: parallel@hubcap.clemson.edu
  52399. Follow-up: comp.parallel
  52400. Path: bounce-back
  52401. From: Michael Fourman <mikef@dcs.ed.ac.uk>
  52402. Subject: Edinburgh University Lectureship in Computer Science
  52403. Organization: Department of Computer Science, University of Edinburgh
  52404. Newsgroups: comp.theory,comp.parallel,misc.jobs.offered
  52405. Followup-To: lmm@dcs.ed.ac.uk
  52406.  
  52407. Apologies, in the original version of this message the email address for 
  52408. responses was wrong. That message has been cancelled. Here is a corrected 
  52409. version.
  52410.  
  52411.         University of Edinburgh
  52412.  
  52413.         Lectureship
  52414.  
  52415. Applications are invited for a five-year lectureship available from
  52416. January 1994.  Applicants should be qualified to Ph.D. level and
  52417. should be able to teach across a range of topics and levels (including
  52418. first-year)within the subject.  For this post, preference will be
  52419. given to candidates with research interests in algorithms and
  52420. complexity, but candidates with excellent records in other areas are
  52421. also encouraged to apply. A number of other temporary posts may become
  52422. available during the next 18 months; applications submitted now
  52423. will also be considered for these posts.
  52424.  
  52425. The successful candidate will be expected to strengthen existing
  52426. research in the Department which currently has major interests in in a
  52427. broad range of theoretical topics through the work of the Laboratory
  52428. for Foundations of Computer Science (LFCS), and in parallel computing
  52429. through its links with the Edinburgh Parallel Computing Centre (EPCC),
  52430. and a small but internationally renowned group working in
  52431. computational complexity.  The successful candidate must be prepared
  52432. to contribute to teaching at all levels and will be expected to carry
  52433. out fundamental research.
  52434.  
  52435. The Department has a very high reputation for the quality of both its
  52436. teaching and research, and has excellent facilities which include over
  52437. 250 workstationms and access to a Connection Machine and a Meiko
  52438. Computing Surface in EPCC.  The existing staff complement consists of
  52439. 26 lecturing staff (including 5 professors) and over 20 research
  52440. workers, supported by computing officers, technical and secretarial
  52441. staff.
  52442.  
  52443. Initial salary will be on the Lecturer A scale #13,601 - 18,855 with
  52444. placement according to age, qualifications and experience.
  52445.  
  52446. Further particulars may be obtained by writing to :
  52447.  
  52448.     The Personnel Office
  52449.     University of Edinburgh
  52450.     1 Roxburgh Street
  52451.     Edinburgh
  52452.     EH8 9TB
  52453.     Scotland, UK
  52454.  
  52455. to whom applications should be sent before the closing date of 1st
  52456. February 1994, or by e-mail from Cindy McGill <lmm@dcs.ed.ac.uk>.
  52457.  
  52458. -------------------------------------------------------------------------------
  52459. Prof. Michael P. Fourman, Laboratory for Foundations of Computer Science,
  52460. University of Edinburgh, Scotland, UK.  email:Michael.Fourman@lfcs.ed.ac.uk
  52461.  
  52462.  
  52463.  
  52464. Approved: parallel@hubcap.clemson.edu
  52465. Follow-up: comp.parallel
  52466. Path: bounce-back
  52467. Newsgroups: comp.parallel
  52468. From: Ugur Halici<UGUR@vm.cc.metu.edu.tr>
  52469. Subject:      AI &MATH : FINAL PROGRAMME & CALL FOR PARTICIPATION
  52470.  
  52471.  
  52472.                         CALL FOR PARTICIPATION
  52473.  
  52474. -------------------------------------------------------------------------
  52475. THE 3RD INTERNATIONAL SYMPOSIUM ON ARTIFICIAL INTELLIGENCE AND MATHEMATICS
  52476. -------------------------------------------------------------------------
  52477. January 2-5, 1994
  52478. Pier 66 Crowne Plaza Resort & Marina
  52479. Ft. Lauderdale, Florida
  52480.  
  52481. The International Symposium on Artificial Intelligence and
  52482. Mathematics is the third of a biennial series featuring
  52483. applications of mathematics in artificial intelligence as well as
  52484. artificial intelligence techniques and results in mathematics.
  52485. There has always been a strong relationship between the two
  52486. disciplines; however, the contact between practitioners of each has been
  52487. limited, partly by the lack of a forum in which the relationship could grow
  52488. and flourish.  This symposium represents a step towards improving contacts
  52489. and promoting cross-fertilization between the two areas.  The editorial board
  52490. of the Annals of Mathematics and Artificial Intelligence serves as the
  52491. permanent organizing committee for the series of Symposia.
  52492.  
  52493. General Chair: Martin Golumbic, Bar-Ilan University
  52494. Conference Chair: Frederick Hoffman  Florida Atlantic University
  52495. Program Co-Chairs: Zvi Kedem, NYU and Erol Gelenbe, Duke University
  52496. Publicity Chair: Ugur Halici, Middle East Technical University
  52497.  
  52498. Sponsors: The symposium is sponsored by Florida Atlantic University. Support
  52499. from the Air Force Office of Scientific Research is pending.
  52500.  
  52501. Accommodations: The symposium will be held at the Pier 66 Crowne Plaza Resort
  52502. & Marina located at 2301 S.E. Seventeenth Street Causeway, Fort Lauderdale,
  52503. Florida 33316. Telephone: 305-525-6666 or toll free in USA and Canada:
  52504. 1-800-327-3796; In Florida: 1-800-432-1956; FAX: 305-728-3551. A block of
  52505. 75 rooms is available at the Pier 66 from Sunday, January 2 to Wednesday,
  52506. January 5 at the symposium rate of $95 single or double. There are only a
  52507. limited number of rooms available on the evening of January 1 at the special
  52508. symposium rate. Due to the holiday, there are no sleeping rooms available
  52509. on December 31. All rooms must be reserved by December 2 in order to get the
  52510. special symposium rate. You must contact Pier 66 Reservations by December 2
  52511. and mention the symposium to get the preferred rate.
  52512.  
  52513. To accommodate symposium attendees coming in early for the tutorials, we have
  52514. also reserved a block of rooms at the Best Western Marina Inn & Yacht Harbor
  52515. which is located directly across the street and a very short walk from the
  52516. Pier 66 (2150 S.E. 17th St. Causeway). We have blocked a small number of
  52517. rooms at the Best Western for the evenings of December 31 at the rate of
  52518. $89 single and $99 double, and 40 rooms for the evening of January 1 at the
  52519. same rate.  Please contact the Best Western at 305-525-3484 or toll free 1-
  52520. 800-327-1390. Reservations must also be made by December 2, 1993 in order to
  52521. get the special rate.
  52522.  
  52523. Transportation: Delta Airlines will serve as the official conference airline.
  52524. Arrangements have been made to allow discounts on Delta's domestic fares.
  52525. Call Delta's Special Meeting Network, or have your travel agent call Delta at
  52526. 1-800-241-6760 and reference our Account number for this conference: XR0081.
  52527. Ft. Lauderdale International Airport is the closest to the conference site.
  52528. Shuttle transportation is available from the airport to the Pier 66 and costs
  52529. less than $10 each way.  Although the Pier 66 is within walking distance of
  52530. many fine restaurants and shops, we will also have special rates for
  52531. symposium participants through Budget Rental Car. In the U.S., call
  52532. 1-800-772-3773; in Canada, call 1-800-268-8900. Reference FAU's conference
  52533. number, #VKR3 AIMC. Please note: there is a daily parking charge at the
  52534. Pier 66.
  52535.  
  52536. Information: For further information about the conference content, contact
  52537. Frederick Hoffman, Florida Atlantic University, Department of Mathematics, PO
  52538. Box 3091, Boca Raton, FL 33431, USA Phone: (407) 367-3345; FAX: (407) 367-
  52539. 2436; E-mail: hoffman@acc.fau.edu or hoffman@fauvax.bitnet. For general
  52540. information about registration, call the University Division of Continuing
  52541. Education and Open University Programs at (407) 367-3090; FAX (407) 367-3987.
  52542.  
  52543. Registration: The registration fee for the Symposium is $150 regular; $75
  52544. student, for registration by December 27, 1991.  After December 27th, and
  52545. door registration is $175 ($100 for students). Students must enclose a
  52546. statement from their university with the registration form. Tutorial
  52547. registrations are $50 each ($35 for students) for one tutorial or $90 for two
  52548. ($65 for students).
  52549.  
  52550. To register, compete the enclosed form and return it with your payment to:
  52551.      International Symposium on Artificial Intelligence and Mathematics
  52552.      University Continuing Education and Open University Programs
  52553.      Florida Atlantic University
  52554.      P. O. Box 3091
  52555.      Boca Raton, Florida 33431-0991
  52556.  
  52557. Make checks payable in U.S. funds only to Florida Atlantic University. Visa
  52558. or MasterCard also accepted. You may register by telephone using your credit
  52559. card by calling 407-367-3092 or fax 407-367-3987.
  52560.  
  52561.  
  52562.                         REGISTRATION FORM
  52563.                         Artificial Intelligence & Mathematics
  52564.                         Program #2300-100-03/NBNRBN402
  52565.  
  52566. Symposium Registration - Please check one:
  52567. ____  Regular: Before December 27th               $150
  52568. ____  Regular: After December 27th                $175
  52569. ____  Student: Before December 27th               $ 75
  52570. ____  Student: After December 27th                $100
  52571.  
  52572. Tutorials: January 2, 1994
  52573. ____  One Tutorial                                $ 50
  52574. ____  Student Rate                                $ 35
  52575. ____  Two Tutorials                               $ 90
  52576. ____  Student Rate                                $ 65
  52577.  
  52578. Name:_____________________________________________________________________
  52579.  
  52580. Social Security Number: __________________________________________________
  52581.  
  52582. Affiliation:_______________________________________________________________
  52583.  
  52584. Address:___________________________________________________________________
  52585.  
  52586. ___________________________________________________________________________
  52587.  
  52588.  
  52589. Telephone:__________________________________ FAX:__________________________
  52590.  
  52591. E-mail:____________________________________________________________________
  52592.  
  52593. Method of payment: _____ Check   ______VISA    ______MC
  52594.  
  52595. If MasterCard or Visa, Number:_____________________________________________
  52596.  
  52597. Expiration Date:___________________________
  52598.  
  52599. Name as it appears on card: _______________________________________________
  52600.  
  52601. Signature: ________________________________________________________________
  52602.  
  52603.  
  52604.  
  52605. Sunday, January 2, 1994  Tutorials
  52606. This year, as part of the effort to bring practitioners of the two
  52607. disciplines together to the benefit of both, we are instituting a tutorial
  52608. series.  We are very pleased with the quality of our first set of tutorials.
  52609. "Mathematical Aspects of Causal Models"
  52610.      Judea Pearl, UCLA
  52611. "Mathematics of Language: How to Measure the Complexity of Natural Languages"
  52612.      Alexis Manaster Ramer, Wayne State University
  52613.      Wlodek Zadrozny, IBM T.J. Watson Research Center
  52614. Others to be announced
  52615.  
  52616. Monday, January 3 through Wednesday, January 5, 1994
  52617. Invited Speakers:
  52618. Christos Papadimitriou, University of California at San Diego
  52619. Jack Schwartz, Courant Institute - NYU
  52620. Vladimir Lifschitz, Stanford University
  52621.  
  52622. Banquet Speaker: "Chicanery in Computer Chess: The Botvinnik Caper"
  52623. Hans J. Berliner, Carnegie Mellon University
  52624.  
  52625. Panel Discussions:
  52626. There will be two important panel discussions of issues involved in
  52627. the AI-Mathematics synergism. One will focus on appropriate problems and
  52628. the other on relations between constraint programming and operations research.
  52629.  
  52630. Special Sessions:
  52631. Session 1:
  52632. "Consistency, Redundancy, and Implied Equalities in Systems
  52633. of Inequalities"
  52634. Chair: Harvey J. Greenberg, University of Colorado at Denver
  52635.  
  52636. "The Stand-and-hit algorithm for linear programming redundancy"
  52637. A. Boneh, Wichita State University, S. Boneh, The Technion, Haifa, Israel,
  52638. and R.Caron and S. Jibrin, University of Windsor
  52639.  
  52640. "A fast algorithm for diagnosing infeasible network flow
  52641. problems"
  52642. C. Aggarwal, MIT Operations Research Center, J. Hao, GTE Labs, and J. Orlin,
  52643. MIT
  52644.  
  52645. "The use of the optimal partition to determine all implied
  52646. equalities in a consistent system and an irreducible infeasible
  52647. subsystem in an inconsistent system"
  52648. H.J. Greenberg, University of Colorado at Denver
  52649.  
  52650. Sessions on SAT
  52651. (organized by Endre Boros and Alex Kogan)
  52652.  
  52653.  
  52654. Session 2A:
  52655. "Fault Tolerance in Massively Parallel Computers"
  52656. Ansuman Bagchi, Brigitte Servatius, and W.Shi, Worcester Polytechnic
  52657. Institute
  52658.  
  52659. "A Fast Parallel SAT-Solver - Efficient Workload Balancing"
  52660. Max Boehm and Ewald Speckenmeyer, University of Dusseldorf, Germany,
  52661. "An Empirical Study of Branching Rules for Satisfiability"
  52662. John Hooker, Carnegie Mellon University, V. Vinay, Centre for AI and
  52663. Robotics, Bangalore, India
  52664.  
  52665. "A GRASP for MAX-SAT"
  52666. Mauricio G.C. Resende, AT&T Bell Labs, Thomas A. Feo, University of Texas at
  52667. Austin
  52668.  
  52669.  
  52670. Session 2B:
  52671. "Some Remarks on Renaming and Satisfiability Hierarchies"
  52672. Thomas Eiter, Technical University of Vienna, Austria, Pekka Kilpelainen, and
  52673. Heikki Mannila, University of Helsinki.
  52674.  
  52675. "Hierarchies of Polynomially Solvable SAT Problems"
  52676. Giorgio Gallo and Danilele Pretolani, University of Pisa
  52677.  
  52678. "Escape Mechanisms for Local Search for Satisfiability"
  52679. Bart Selman and Henry Kautz, AT&T Bell Laboratories
  52680.  
  52681. "Persistency Results in SAT and MAX-SAT"
  52682. Endre Boros and Peter L. Hammer, Rutgers University
  52683.  
  52684. Session 2C:
  52685. "Experimental Results on the Crossover Point in Satisfiability Problems"
  52686. James Crawford and Larry Auton, University of Oregon
  52687.  
  52688. "Many Hard Examples for Resolution are Easy"
  52689. J. Franco and R. Swaminathan, University of Cincinnati
  52690.  
  52691. "Survey of Average Time SAT Performance"
  52692. Paul Purdom, University of Indiana
  52693.  
  52694. "Computational Experiments with an Exact SAT Solver"
  52695. Alex Kogan, Endre Boros, and Peter L. Hammer, Rutgers University
  52696.  
  52697.  
  52698. Contributed Papers:
  52699. "Area Method and Automated Theorem Proving in Affine Geometries"
  52700. Shang-Ching Chou, Xiao-Shan Gao, Jing-Zhong Zhang, The Wichita State
  52701. University
  52702.  
  52703. "An Unconstrained Optimization Algorithm for the Satisfiability Problem"
  52704. Jun Gu, The University of Calgary
  52705.  
  52706. "Polynomial-Time Stable Models"
  52707. Carlo Zaniolo, Luigi Palopoli, University of California at Los Angeles
  52708.  
  52709. "Automating Induction: Explicit vs. Inductionless"
  52710. Deepak Kapur, Hantao Zhang, State University of New York at Albany
  52711.  
  52712. "Combining Neural Networks: An Overview":
  52713. Sherif Hashem, Bruce Schmeiser, Purdue University
  52714.  
  52715. "Relative Correctness of Prolog Programs"
  52716. Leon Sterling, Marc Kirschenbaum, and Ashish Jain, Case Western Reserve
  52717. University
  52718.  
  52719. "Domain-Specific Complexity Tradeoffs"
  52720. Bart Selman, AT&T Bell Laboratories
  52721.  
  52722. "Removable Arcs in Stepwise-Decomposable Decision Networks"
  52723. (Nevin) Lianwen Zhang and David Poole, University of British Columbia
  52724.  
  52725. "Intelligent Backtracking in CLP-R"
  52726. Charles E. Hughes, Jennifer Burg, Sheau-Dong Lang, University of Central
  52727. Florida
  52728.  
  52729. "Wormholes in the Search Space"
  52730. Jerry Waxman and Jacob Shapiro, The City University of New York
  52731.  
  52732. "Interwoven Procedural and Declarative Programming"
  52733. Ken McAloon and Carol Tretkoff, CUNY Graduate Center and Brooklyn College
  52734.  
  52735. "Directional Resolution: The Davis-Putman Procedure Revisited"
  52736. Rina Dechter, University of California at Los Angeles
  52737.  
  52738. "A Mathematical Programming Framework For Uncertainty Logics"
  52739. John Hooker and K. A. Anderson, Carnegie Mellon University
  52740.  
  52741. "Hunting For Snakes Using The Genetic Algorithm"
  52742. Walter D. Potter, R. W. Robinson, K, J. Kochut, J. A. Miller, and D. Z.
  52743. Redys, The University of Georgia
  52744.  
  52745. "Paraconsistent Circumscription"
  52746. Zuoquan Lin, Shantou University
  52747.  
  52748. "Logical Considerations on Default Semantics"
  52749. Guo-Quiang Zhang and William C. Rounds, University of Michigan
  52750.  
  52751. "Seminormal Stratified Default Theories"
  52752. Pawel Cholewinski,University of Kentucky
  52753.  
  52754. "Voronoi Diagram Approach For Structure Training of Neural Networks"
  52755. N. K. Bose and A. K. Garga, The Pennsylvania State University
  52756.  
  52757. "Learning-Theoretic Perspectives of Acceptable Numberings"
  52758. Ganesh R. Baliga and Anil M. Shende, University of Delaware
  52759.  
  52760. "Use of Presburger Formulae in Semantically Guided Theorem
  52761. Proving"
  52762. Heng Chu and David A. Plaisted, University of North Carolina
  52763.  
  52764. "Function Discovery using Data Transformation"
  52765. Thong H. Phan and Ian H. Witten, The University of Calgary
  52766.  
  52767. "Polynomial Algorithms for Problems over D-Systems"
  52768. Klaus Truemper, The University of Texas at Dallas
  52769.  
  52770. "Ranges of Nonmonotonoc Modal Logics: Largest Logics"
  52771. Grigori Schwarz, Stanford University
  52772.  
  52773. "Bayesian Computations through Approximation Functions"
  52774. Eugene Santos Jr., Air Force Institute of Technology
  52775.  
  52776. "Learning in Relational Databases: A Rough Set Approach"
  52777. Xiaohua Hu and Nick Cercone, University of Regina
  52778.  
  52779. "Neural Nets and Graph Coloring"
  52780. Kenneth J. Danhof, L. Clark, W. D. Wallis, Southern Illinois University at
  52781. Carbondale
  52782.  
  52783. "Subsumption in Constraint Query Languages Involving
  52784. Disjunctions of Range Constraints"
  52785. Aris Ouksel and A. Ghazal, The University of Illinois at Chicago
  52786.  
  52787. "Reasoning on Knowledge in Symbolic Computing"
  52788. Jacques Calmet, Karsten Homann, and Indra A. Tjandra, Universitat Karlsruhe
  52789.  
  52790. "Intelligent Simulation About Dynamic Systems"
  52791. Feng Zhao, The Ohio State University
  52792.  
  52793. "On conditional rewrite systems with extra variables and deterministic logic
  52794. programs"
  52795. Jurgen Avenhaus and Carlos Loria-Saenz
  52796.  
  52797. "Using strong cutting planes in constraint logic programming"
  52798. Alexander Bockmayr
  52799.  
  52800. "Program tactics and logic tactics"
  52801. Fausto Giunchiglia and Paolo Traverso
  52802.  
  52803. "Serializability of sets"
  52804. Ugur Halici and Asuman Dogac
  52805.  
  52806. "Synthesis of Induction Orderings for Existence Proofs"
  52807. Dieter Hutter
  52808.  
  52809. "A comparative study of open default theories"
  52810. Michael Kaminski
  52811.  
  52812. "Theorem proving by analogy"
  52813. Erica Melis
  52814.  
  52815. "Grobner bases for set constraints"
  52816. Yosuke Sato
  52817.  
  52818. "The Hopfield net loading problem is tractable"
  52819. V. Chandru, V. Vinay
  52820.  
  52821. "Computability in control"
  52822. E. Martin, D. Luzeaux
  52823.  
  52824. "The time complexity of backtracking"
  52825. Martin Zahn
  52826.  
  52827. Speakers are invited to submit final versions of their papers for possible
  52828. publication in special volumes of the journal, "Annals of Mathematics and
  52829. Artificial Intelligence," published by J.C. Baltzer Scientific Publishing
  52830. Company, Wettsteinplatz 10, Basel CH-4058, Switzerland.
  52831.  
  52832.  
  52833. Approved: parallel@hubcap.clemson.edu
  52834. Follow-up: comp.parallel
  52835. Path: bounce-back
  52836. From: schumacher@rz.uni-mannheim.de
  52837. Newsgroups: comp.parallel,comp.sys.super,comp.arch
  52838. Subject: Report on the KSR1
  52839. Organization: Rechenzentrum Uni-Mannheim (RUM)
  52840.  
  52841. The report 
  52842.  
  52843.     'One Year KSR1 at the University of Mannheim - 
  52844.         Results &  Experiences'
  52845.  
  52846. is available via anonymous ftp.
  52847. Connect to ftp.uni-mannheim.de, cd info/rumdoc, get rum3593.ps or rum3593s.ps,  
  52848. which is 300dpi or 400dpi.
  52849.  
  52850. --
  52851. Robert Schumacher
  52852. Computing Center                        email:  schumacher@rz.uni-mannheim.de
  52853. University of Mannheim                  voice:  ++49 621 292 5605
  52854. Postfach 10 34 62                       fax:    ++49 621 292 5012
  52855. L15, 16
  52856. D-68131 Mannheim
  52857.  
  52858. Approved: parallel@hubcap.clemson.edu
  52859. Follow-up: comp.parallel
  52860. Path: bounce-back
  52861. Newsgroups: comp.parallel
  52862. From: pleierc@Informatik.TU-Muenchen.DE (Christoph Pleier)
  52863. Subject: looking for remote compilation tools
  52864. Sender: news@Informatik.TU-Muenchen.DE (USENET Newssystem)
  52865. Organization: Technische Universitaet Muenchen, Germany
  52866.  
  52867. I am looking for tools to perform remote compilation in heterogeneous
  52868. UNIX networks.
  52869.  
  52870. Is there anybody who can give me a hint where to find such tools?
  52871.  
  52872. Thanking you in anticipation,
  52873. Christoph Pleier
  52874. (pleierc@informatik.tu-muenchen.de)
  52875.  
  52876.  
  52877. Approved: parallel@hubcap.clemson.edu
  52878. Follow-up: comp.parallel
  52879. Path: bounce-back
  52880. Newsgroups: comp.parallel
  52881. From: tossy@uranus.informatik.rwth-aachen.de (Frank Brockners)
  52882. Subject: Wanted: Information on taskmigration
  52883. Date: 23 Dec 1993 13:07:02 GMT
  52884. Organization: Rechnerbetrieb Informatik - RWTH Aachen
  52885.  
  52886. Does anyone have information (papers, tech-reports, notes) on 
  52887. process- / taskmigration (and its implementation) on MPP-Systems?
  52888.  I am working on taskmigration on a transputerbased architecture
  52889. and looking for related research results.
  52890.  
  52891. Thanks in advance
  52892.  
  52893.  
  52894. Frank
  52895.  
  52896. --
  52897. Frank Brockners                               Institute for Operating Systems
  52898. email: ih206br@cluster.rz.rwth-aachen.de      Aachen University of Technology
  52899.    or: brockners@lfbs.rwth-aachen.de          Kopernikusstr. 16, 52062 Aachen
  52900. Phone: +49 241 804 374                        Germany
  52901. Approved: parallel@hubcap.clemson.edu
  52902. Follow-up: comp.parallel
  52903. Path: bounce-back
  52904. From: cel@theory.lcs.mit.edu (Charles E. Leiserson)
  52905. Newsgroups: comp.parallel,comp.theory,comp.arch
  52906. Subject: SPAA'94 call for papers -- deadline January 21, 1994
  52907. Date: 22 Dec 1993 15:24:11 GMT
  52908. Organization: MIT Laboratory for Computer Science
  52909. Nntp-Posting-Host: larry.lcs.mit.edu
  52910.  
  52911.  
  52912.                SPAA'94 CALL FOR PAPERS
  52913.  
  52914.             Sixth Annual ACM Symposium on
  52915.         PARALLEL ALGORITHMS AND ARCHITECTURES
  52916.  
  52917.                JUNE 27-29, 1994
  52918.              Cape May, New Jersey
  52919.  
  52920.  
  52921. The Sixth Annual ACM Symposium on Parallel Algorithms and
  52922. Architectures (SPAA'94) will be held in Cape May, New Jersey, on June
  52923. 27-29, 1994.  It is sponsored by the ACM Special Interest Groups for
  52924. Automata and Computability Theory (SIGACT) and Computer Architecture
  52925. (SIGARCH) and organized in cooperation with the European Association
  52926. for Theoretical Computer Science (EATCS).
  52927.  
  52928. CONTRIBUTED PAPERS: Contributed papers are sought that present
  52929. original, fundamental advances in parallel algorithms and
  52930. architectures, whether analytical or experimental, theoretical or
  52931. practical.  A major goal of SPAA is to foster communication and
  52932. cooperation among the diverse communities involved in parallel
  52933. algorithms and architectures, including those involved in operating
  52934. systems, languages, and applications.  The Symposium especially
  52935. encourages contributed papers that offer novel architectural
  52936. mechanisms or conceptual advances in parallel architectures,
  52937. algorithmic work that exploits or embodies architectural features of
  52938. parallel machines, and software or applications that emphasize
  52939. architectural or algorithmic ideas.
  52940.  
  52941. VENDOR PRESENTATIONS:  As in previous years, the Symposium
  52942. will devote a subset of the presentations to technical material
  52943. describing commercially available systems.  Papers are solicited
  52944. describing concepts, implementations or performance of commercially
  52945. available parallel computers, routers, or software packages containing
  52946. novel algorithms.  Papers should not be sales literature, but rather
  52947. research-quality descriptions of production or prototype systems.
  52948. Papers that address the interaction between architecture and
  52949. algorithms are especially encouraged.
  52950.  
  52951. SUBMISSIONS: Authors are invited to send draft papers to:
  52952.     Charles E. Leiserson, SPAA'94 Program Chair
  52953.     MIT Laboratory for Computer Science
  52954.     545 Technology Square
  52955.     Cambridge, MA  02139
  52956.     USA
  52957. The deadline for submissions is JANUARY 21, 1994.  Simultaneous
  52958. submission of the same research to SPAA and to another conference with
  52959. proceedings is not allowed.  Inquiries should be addressed to Ms.
  52960. Cheryl Patton (phone: 617-253-2322; fax: 617-253-0415; e-mail:
  52961. cap@mit.edu).
  52962.  
  52963. FORMAT FOR SUBMISSIONS: Authors should submit 15 double-sided copies
  52964. of a draft paper.  The cover page should include (1) title, (2)
  52965. authors and affiliation, (3) e-mail address of the contact author, and
  52966. (4) a brief abstract describing the work.  If the paper is to be
  52967. considered as a vendor presentation, the words ``Vendor Presentation''
  52968. should appear at the top of the cover page.  A technical exposition
  52969. should follow on subsequent pages, and should include a comparison
  52970. with previous work.  The technical exposition should be directed
  52971. toward a specialist, but it should include an introduction
  52972. understandable to a nonspecialist that describes the problem studied
  52973. and the results achieved, focusing on the important ideas and their
  52974. significance.  The draft paper--excluding cover page, figures, and
  52975. references--should not exceed 10 printed pages in 11-point type or
  52976. larger.  More details may be supplied in a clearly marked appendix
  52977. which may be read at the discretion of the Program Committee.  Any
  52978. paper deviating significantly from these guidelines--or which is not
  52979. received by the January 21, 1994 deadline--risks rejection without
  52980. consideration of its merits.
  52981.  
  52982. ACCEPTANCE: Authors will be notified of acceptance or rejection by a
  52983. letter mailed by March 15, 1994.  A final copy of each accepted paper,
  52984. prepared according to ACM guidelines, must be received by the Program
  52985. Chair by April 8, 1994.  It is expected that every accepted paper will
  52986. be presented at the Symposium, which features no parallel sessions.
  52987.  
  52988. CONFERENCE CHAIR: 
  52989.     Lawrence Snyder, U. Washington.
  52990.  
  52991. LOCAL ARRANGEMENTS CHAIR: 
  52992.     Satish Rao and Yu-dauh Lyuu, NEC Research Institute.
  52993.  
  52994. PROGRAM COMMITTEE:
  52995.     Gianfranco Bilardi (U. Padova, Italy),
  52996.     Tom Blank (MasPar),
  52997.     Guy Blelloch (Carnegie Mellon),
  52998.     David Culler (U. California, Berkeley),
  52999.     Robert Cypher (IBM, Almaden),
  53000.     Steve Frank (Kendall Square Research),
  53001.     Torben Hagerup (Max Planck Institute, Germany),
  53002.     Charles E. Leiserson, Chairman (MIT),
  53003.     Trevor N. Mudge (U. Michigan, Ann Arbor),
  53004.     Cynthia A. Phillips (Sandia National Laboratories),
  53005.     Steve Oberlin (Cray Research),
  53006.     C. Gregory Plaxton (U. Texas, Austin),
  53007.     Rob Schreiber (RIACS).
  53008.  
  53009.  
  53010.  
  53011.  
  53012. --
  53013. Cheers,
  53014. Charles
  53015.  
  53016. Approved: parallel@hubcap.clemson.edu
  53017. Follow-up: comp.parallel
  53018. Path: bounce-back
  53019. Newsgroups: comp.parallel
  53020. From: langlais@ift.ulaval.ca (Pascal Langlais (Dupuis))
  53021. Subject: Conference papers needed
  53022. Reply-To: langlais@ift.ulaval.ca
  53023. Organization: Universite Laval, Dept. Informatique
  53024.  
  53025. I am searching some Conference Papers :
  53026.  
  53027. Edwards, J. "A parallel implementation of the Painter's algorithm for transputer networks". Applications of Transputers 3. Proceedings of the Third International
  53028. Conference on Applications of Transputers, p.736-741, 1991.
  53029.  
  53030. O. Friedler, M.R. Stytz, "Dynamic detection of hidden-surfaces using a MIMD multiprocessor". Proceedings of Third Annual IEEE Symposium on Computer-Based Medical
  53031. Systems, p.44-51, 1990.
  53032.  
  53033.  
  53034. M. Blonk, W.F. Bronsvoort, F. Bruggeman, L. de Vos, "A parallel system for CSG hidden-surface elimination". Parallel Processing. Proceedings of the IFIP WG 10.3 Working Conference, p. 139-152, 1988.
  53035.  
  53036.  
  53037.  
  53038. If somebody have one of these or know where I can get them, please contact me !!!
  53039.  
  53040. Thank you 
  53041.  
  53042.  
  53043. Pascal Langlais
  53044. etudiant gradue
  53045. departement d'informatique
  53046. Universite Laval
  53047.  
  53048. langlais@ift.ulaval.ca
  53049.  
  53050.  
  53051. Approved: parallel@hubcap.clemson.edu
  53052. Follow-up: comp.parallel
  53053. Path: bounce-back
  53054. Newsgroups: comp.parallel
  53055. From: beth@osc.edu (Beth Johnston)
  53056. Subject: OSC to buy CRAY T3D
  53057. Date: 22 Dec 1993 14:05:44 -0500
  53058. Organization: The Ohio Supercomputer Center
  53059. Summary: Ohio Supercomputer Center to buy MPP
  53060.  
  53061. FOR RELEASE:  DECEMBER 20, 1993
  53062.  
  53063.     CONTACTS:
  53064.     OSC:    Cheryl Johnson, 614-292-6067
  53065.     Cray/Media:    Steve Conway, 612-683-7133
  53066.     Cray/Financial:    Bill Gacki, 612-683-7372
  53067.  
  53068.  
  53069. OHIO SUPERCOMPUTER CENTER ORDERS CRAY T3D
  53070. MASSIVELY PARALLEL PROCESSING SYSTEM
  53071.  
  53072.  
  53073. COLUMBUS, Ohio, Dec. 20, 1993 -- The Ohio Supercomputer Center (OSC) and 
  53074. Cray Research, Inc. (NYSE: CYR) today announced an agreement under which 
  53075. OSC will acquire a 32-processor, "entry-level" version of the CRAY T3D 
  53076. massively parallel processing (MPP) system. The new CRAY system will fit well 
  53077. into OSCUs existing Y-MP8/864 and Y-MP-EL/332 computing environment. The 
  53078. agreement calls for OSC and Cray Research to use the new systems to collaborate 
  53079. on advanced research projects including medical imaging. Financial terms were 
  53080. not  disclosed.
  53081.  
  53082. Under the agreement, a 32-processor, air-cooled CRAY T3D system is scheduled 
  53083. to be installed at the OSC facility in Columbus in second-quarter 1994.  The 
  53084. system will be closely coupled with a CRAY Y-MP2E parallel vector 
  53085. supercomputer system slated for installation at the same time, said OSC 
  53086. director Dr. Charles F. Bender. "This agreement will create a heterogeneous
  53087. computing environment that combines the strengths of traditional parallel
  53088. vector supercomputing with the new capabilities of MPP."
  53089.  
  53090. According to Dr. Bender, the 32-processor system is the smallest version of the 
  53091. CRAY T3D product line, which is available in sizes up to 2048 processors. "This 
  53092. entry-level version will enable us to test the applicability of massively 
  53093. parallel processing to the important research projects of Ohio industry and
  53094. higher education." he said. 
  53095.  
  53096. As an example, the primary goal of the medical imaging research project is to 
  53097. develop faster, more accurate methods for transferring and analyzing images 
  53098. gained from MRI (magnetic resonance imaging) and other digital medical imaging 
  53099. technologies. "We want to achieve real-time medical imaging, which could have 
  53100. very significant impact on diagnosis, surgery planning, and medical education," 
  53101. said Dr. Bender.
  53102.  
  53103. The research collaboration calls for OSC to establish a multi-disciplinary team 
  53104. consisting of existing staff with expertise in systems programming, training, 
  53105. computational chemistry, computational fluid flow, and finite element analysis. 
  53106. Cray Research would provide training as well as staff to collaborate on the
  53107. project, which has a three-year duration.
  53108.  
  53109. "Over the years, OSC and CRI have had many successful joint research projects 
  53110. and we are pleased that OSC, which is already a Cray customer, has chosen to 
  53111. continue its relationship with Cray Research and our heterogeneous CRAY T3D 
  53112. system on this innovative research project," said Cray chairman and CEO John F. 
  53113. Carlson. "We will fully support the goals of this collaboration."
  53114.  
  53115. OSC is a state-funded shared resource of high performance computing available
  53116. to scientists and engineers, both academic and commercial. Since 1987, OSC has 
  53117. been committed to providing the latest computational tools and technologies to 
  53118. industry and higher education.
  53119.  
  53120. Cray Research creates the most powerful, highest-quality computational tools 
  53121. for solving the worldUs most challenging scientific and industrial problems.
  53122.  
  53123. Approved: parallel@hubcap.clemson.edu
  53124. Follow-up: comp.parallel
  53125. Path: bounce-back
  53126. Newsgroups: comp.parallel
  53127. From: ferraro@ccsf.caltech.edu (Robert Ferraro)
  53128. Subject: HPCC Grad Student Fellowship
  53129. Date: 22 Dec 1993 21:50:36 GMT
  53130. Organization: CCSF Caltech, Pasadena, CA
  53131. Nntp-Posting-Host: sampson.ccsf.caltech.edu
  53132. Keywords: HPCC, fellowship, graduate student, JPL, GSRP
  53133.  
  53134. Announcement of a Graduate Student Fellowship Opportunity 
  53135. in High Performance Computing at the Jet Propulsion Laboratory
  53136.  
  53137. In the 1994 academic year, at least one new NASA Graduate Student
  53138. Researchers Program (GSRP) fellowship award will be granted through
  53139. JPL as part of the Federal High Performance Computing and Communications (HPCC)
  53140. Program. These GSRP fellowships are targeted to support doctoral students whose
  53141. research programs would be enhanced by access to JPL HPCC facilities and
  53142. interaction with JPL scientists and staff.  Only full-time graduate students
  53143. who are citizens of the US are eligible for awards, which carry a $16,000
  53144. student stipend, and up to $6,000 for tuition and travel expenses. Fellowship
  53145. terms normally extend for a maximum of 3 years. The deadline for applications
  53146. for 1994 GSRP fellowships is Feb. 1, 1994.
  53147.  
  53148. As part of NASA's HPCC Earth and Space Science (ESS) project, JPL is conducting
  53149. research in system software, user tools, and parallel computational methods for
  53150. distributed memory MIMD architectures.  Areas of particular interest include
  53151. parallel programming paradigms, decomposition and dynamic load balancing 
  53152. methods, parallel visualization and analysis of massive data sets, methods 
  53153. for solving partial differential equations, and debugging/performance
  53154. monitoring methodologies.  This work is in support of ESS Grand Challenge
  53155. science applications, which include multi-disciplinary modeling of Earth and
  53156. space phenomena and analysis of data from remote sensing instruments.  JPL also
  53157. operates two of the ESS project computing testbeds: an Intel Paragon, and
  53158. a Cray T3D.
  53159.  
  53160. Graduate students who are doing (or anticipate doing) doctoral research in
  53161. topics which may be relevant to JPL HPCC research interests are urged to
  53162. contact Dr. Robert Ferraro at the Jet Propulsion Laboratory for more
  53163. information. (Faculty advisors with potential candidates are also invited to
  53164. inquire.) 
  53165.  
  53166. Send Email to:  ferraro@zion.jpl.nasa.gov
  53167.  
  53168. Approved: parallel@hubcap.clemson.edu
  53169. Follow-up: comp.parallel
  53170. Path: bounce-back
  53171. Newsgroups: comp.parallel
  53172. From: Marie-Christine Sawley <sawley@sic.epfl.ch>
  53173. Subject: Job advertisement in Switzerland (computational physicist)
  53174. Path: samac9.epfl.ch!sawley
  53175. Organization: Service Informatique Central
  53176.  
  53177.  
  53178.              YOUNG COMPUTATIONAL PHYSICIST
  53179.  
  53180.   Swiss Federal Institute of Technology of Lausanne (EPFL)
  53181.  
  53182.  
  53183. The EPFL has a vacancy  within the framework of the Parallel 
  53184. Application   Technology   Program  (PATP)   established  in  
  53185. collaboration with CRAY RESEARCH Inc.  This program is aimed at  
  53186. the  development  of  scientific  applications  for  the massively 
  53187. parallel computer, the Cray T3D.  
  53188.  
  53189.   We are presently looking for a young computational physicist 
  53190. (less than 30 years old, PhD or diploma, preferably from plasma 
  53191. physics) having a solid background in multidimensional scientific 
  53192. simulations on supercomputers, to join the Plasma Physics Team of 
  53193. EPFL (Centre de Recherches en Physique des Plasmas,  CRPP). The 
  53194. applicant will be part of a multilingual research group developing 
  53195. various hyperfrequency-device and plasma-physics codes. He/she 
  53196. will be responsible of porting and exploiting two particle-in-cell 
  53197. (PIC) codes on the T3D for gyrotron simulations. The position 
  53198. requires a strong interest in learning to exploit the potential 
  53199. of the massively parallel computing technology for multidimensional 
  53200. kinetic plasma simulations, creativity in physics and good knowledge 
  53201. of numerical analysis. 
  53202.  
  53203. The position is available from 1 January 1994 for a period of 
  53204. 12 months, with two possible  renewals. The level of appointment 
  53205. will depend on the qualifications of the applicant. Salary, based 
  53206. on Swiss government scales, is highly competitive. 
  53207.  
  53208. Applications, including a curriculum vitae, list of publications 
  53209. and the names of three references, should be sent before 
  53210. 31 January 1994 to 
  53211.           Dr. Kurt Appert
  53212.           CRPP/EPFL
  53213.           Av. des Bains 21 
  53214.           CH-1007 Lausanne   
  53215.           Switzerland
  53216.   
  53217. For further information  Tel:  +41 21 693 34 53; 
  53218.                          Fax:  +41 21 693 51 76; 
  53219.                          e-mail:  appert@crpp.epfl.ch 
  53220.  
  53221. The Ecole  Polytechnique  Federale de Lausanne (EPFL), which
  53222. is  one  of   two   national   technical   universities   in
  53223. Switzerland,  is  situated  on the  northern  shore  of Lake
  53224. Geneva overlooking the Swiss Alps.  The EPFL is comprised of
  53225. 11  departments  actively  involved  in  both  research  and
  53226. teaching with a total of 4000 students, 140 professors, 1400
  53227. research  staff, as well as  additional  administrative  and
  53228. technical   staff.   Excellent   computer    resources   are
  53229. available, consisting of central supercomputers (presently a
  53230. Cray Y-MP M94 and a Cray  Y-MP EL file  server),  as well as
  53231. the  computational  resources  (e.g.,  high  and  low  level
  53232. workstations)  of the various  departments  and  institutes.
  53233. Access is also  available to  supercomputers  at other Swiss
  53234. centres.  The EPFL  will  install  in April  1994 a Cray T3D
  53235. system  with 128  processors  (to be  upgraded to 256).  The
  53236. EPFL is the sole European PATP site; its activities  will be
  53237. coordinated with the three  corresponding  American programs
  53238. at  Pittsburgh   Supercomputing   Center,  JPL/Caltech,  and
  53239. LLNL/LANL.
  53240. ==================================================================
  53241.  
  53242. Dr. Kurt Appert
  53243.           CRPP/EPFL
  53244.           Av. des Bains 21 
  53245.           CH-1007 Lausanne   
  53246.           Switzerland
  53247.   
  53248.  Tel:  +41 21 693 34 53; 
  53249.   Fax:  +41 21 693 51 76; 
  53250.  e-mail:  appert@crpp.epfl.ch
  53251.  
  53252. Approved: parallel@hubcap.clemson.edu
  53253. Follow-up: comp.parallel
  53254. Path: bounce-back
  53255. Newsgroups: comp.parallel
  53256. From: Dawn McNeill <dmcneill@mit.edu>
  53257. Subject: Summer Course:  Design and Analysis of Distributed Protocols
  53258. Organization: MIT-Summer Professional Programs
  53259.  
  53260. Dates: July 25-29, 1994        Tuition:  $2,100
  53261.  
  53262.  
  53263. Overview:  This course will focus on the design and analysis of
  53264. distributed message passing protocols, the key communication paradigm in
  53265. computing environments ranging from tightly coupled multiprocessors to
  53266. local and wide area networks.  Although message passing systems have
  53267. highly efficient  hardware implementations, programming them is an
  53268. intellectually challenging and often painfully difficult task.  There is
  53269. a large body of theoretical work directed at helping the
  53270. programmer/designer understand how to do this.  This theory identifies
  53271. typical problems for solution in message passing systems, and shows how
  53272. to design and analyze protocols that solve them.  Often, this involves
  53273. using message passing systems to emulate simpler communication paradigms.
  53274.  The theory also identifies the inherent costs of solutions, and even
  53275. shows that certain problems cannot be solved at all.
  53276.  
  53277. This course is intended to familiarize programmers and system engineers
  53278. with this theory, during one intensive week, through a combination of
  53279. topic lectures and related problem sessions.
  53280.  
  53281. The following is an overview of the topics we will cover:
  53282.  
  53283. Computation Models - 
  53284.      We will develop your intuition and understanding of the basic
  53285. distributed system models, including the Synchronous, Asynchronous, and
  53286. Timing-Based models of computation.  We will study the general Message
  53287. Passing model, plus simpler paradigms such as Shared Memory and Atomic
  53288. Objects.  We will also explain the various assumptions regarding link
  53289. and/or processor failures, and what their implications are for the
  53290. solvability of various problems.
  53291.  
  53292. Communication and Synchronization Problems -
  53293.      We will show how to solve or prove impossible problems such as
  53294. Leader Election, Searching a Network, Broadcast-Convergecast, Finding
  53295. Shortest Paths, Finding a Minimum Spanning Tree, Distributed Consensus,
  53296. Byzantine Agreement, Transaction Commit, Mutual Exclusion, Dining
  53297. Philosophers, Resource Allocation, Atomic Snapshot, Concurrent
  53298. Timestamping, Register Implementation, Reliable Communication,
  53299. Termination Detection, Deadlock Detection, and more.
  53300.  
  53301. Network Transformations -
  53302.      We will study several of the most useful ways of transforming a
  53303. message passing system into a high-level programming environment by
  53304. using:  Logical Clocks, State Machine Simulators, Shared Memory
  53305. Emulators, and Synchronizers.
  53306.  
  53307. Proof Methods -
  53308.      We will demonstrate some of the most powerful and practical proof
  53309. techniques for reasoning about the correctness and performance of
  53310. distributed protocols, including Invariant Assertions and Simulation
  53311. Mappings.
  53312.  
  53313. Expected Background
  53314.      The course is intended for programmers, system designers, system
  53315. engineers,  and other students with a good knowledge of practical
  53316. computer systems.  We will assume a typical college background in
  53317. mathematics for computer science students.
  53318.  
  53319. Course Format
  53320.      Each morning will be devoted to two lectures, separated by a coffee
  53321. break.  After lunch there will be a problem/discussion session where
  53322. students will break up into small groups to discuss problems assigned by
  53323. the instructors.  After another coffee break, the afternoon will end with
  53324. a third lecture.  The third lecture will be shortened or omitted on
  53325. Friday in favor of a general discussion of the applications of the course
  53326. material to the students' work.
  53327.  
  53328.      On Monday night there will be a cocktail party/get-acquainted
  53329. session.  At this session, students will be invited to discuss the ways
  53330. that distributed protocols are (or could be) used in their work.  On
  53331. Thursday night there will be a banquet at a local restaurant.
  53332.  
  53333. Staff
  53334.      The course will be taught by Profs. Nancy Lynch and Nir Shavit. 
  53335. Prof. Lynch is the head of the Theory of Distributed Systems (TDS) group
  53336. at MIT's Laboratory for Computer Science.  Prof. Shavit is an Assistant
  53337. Professor of Computer Science at Tel-Aviv University in Israel; until two
  53338. years ago, he was a member of the TDS group.
  53339.  
  53340.  
  53341.  
  53342.  
  53343.  
  53344. For further information or an application form, please contact our office
  53345. at 617-253-2101, or e-mail us at summer-professional-programs@mit.edu.
  53346.  
  53347. Approved: parallel@hubcap.clemson.edu
  53348. Follow-up: comp.parallel
  53349. Path: bounce-back
  53350. Newsgroups: comp.parallel
  53351. From: cengelog@cambridge.dab.ge.com (Yilmaz Cengeloglu)
  53352. Subject: FREE Blackboard, Dynamic Knowledge Exchange, Agents tool for CLIPS 5.1
  53353. Organization: Martin Marietta, Daytona Beach, Florida
  53354.  
  53355. ---------------------------------------------------------------------
  53356. FREE Blackboard, Dynamic Knowledge Exchange, Agents tool for CLIPS 5.1
  53357. ----------------------------------------------------------------------
  53358.  
  53359. DYNACLIPS (DYNAamic CLIPS Utilities)  Version 1.0 is RELEASED. 
  53360.  
  53361. ***PLEASE LET ME KNOW, IF YOU ARE INTERESTED WITH
  53362. ***FREE COPY OF THIS UTILITIES.
  53363.  
  53364. I have already mailed copy of these utilities people who
  53365. already requested. If I have forget anyone, please let me know. 
  53366.  
  53367. I have not get any response from people who received it therefore
  53368. I do not know what they think about DYNACLIPS.
  53369.  
  53370. This is the first version and I did  not have environment to test
  53371. it. Belive me, It was working very well. In order to make more
  53372. generic, I had to remove several function of real DYNACLIPS that I
  53373. have used for my thesis. This process might bring some problems.
  53374.  
  53375. Source code is NOT avaiable. Please do not ask.
  53376. I am only releasing libraries that you can link with CLIPS. 
  53377.  
  53378. You can use it  as a BLACKBOARD ARCHITECTURE TOOL, it is a
  53379. basic BBA contains Control, Blackboard, and Knowledge sources.  
  53380.  
  53381. I am   NOT distributing  CLIPS with this tool, therefore you need to
  53382. get CLIPS yourself. 
  53383.  
  53384. Most important feature of this tool is that; rules and commands can
  53385. be exchanged dynamicly. For instance, one agent in the framework can
  53386. create a rule and send it to other agents. Other agents receives this 
  53387. rule and adds to its own knowledge automaticly.   
  53388.  
  53389. It is too easy to use, it is just a CLIPS with some additional funtions
  53390. that is used for sending facts, rule commands among agents.
  53391.  
  53392. It would be very useful for people doing research and need BBA tool 
  53393. which is in C/CLIPS. 
  53394.  
  53395. Dynamic Knowledge Exchange has several potential applications and this
  53396. tool would be good for preparing prototypes.  
  53397.  
  53398.  
  53399.  
  53400. History :
  53401. ---------
  53402. This tool is a part of my thesis. 
  53403. I have used Blackboard Architecture as a base and design a
  53404. Framework. In this Framework,  each Intelligent agent is an
  53405. CLIPS shell and runs as a different process on SunOS operating System.
  53406.  
  53407. Agents uses blackboard to communicate with other Intelligent agents
  53408. in the framework.  Each intelligent Agent can send/receive facts, rules,
  53409. commands. Rules and Facts are inserted/deleted dynamicly while agents are
  53410. running. Knowledge can be transfered as a temporary any permanent basis.
  53411.  
  53412. I have integrated this Framework with Air Traffic Control Simulator which
  53413. I have written in C.  One intelligent Agents runs for each plane in the
  53414. ATC Simulator. Inteligent agents try to solve conflict using dynamic
  53415. knowledge exchange. I have used ATC simulator to verify that if knowledge
  53416. exchange among agents is working well. Therefore that does not means that
  53417. knowledge exchange is a good solution for solving conflict in the airspace.
  53418. This framework is a prototype. ATC simulator is belong to institute that
  53419. I was working while I was doing my thesis, plase do not ask a copy. 
  53420.  
  53421.  
  53422.  
  53423.          Yilmaz cengeloglu
  53424.          P.O. Box 10412
  53425.          Daytona Beach, FL 32120-0412
  53426.  
  53427.  cengelog@cambridge.dab.ge.com   ****(Please use this address)****
  53428.  yil@engr.ucf.edu
  53429.  73313.775@compuserve.com
  53430.  
  53431.  
  53432. DISCLAIMER : 
  53433. : ************************************************************
  53434. : I do not talk for Martin Marietta Corporation and This tool 
  53435. : is not related any job I do in the Martin Marietta. 
  53436. : ************************************************************
  53437.  
  53438.  
  53439.  
  53440.  
  53441. Approved: parallel@hubcap.clemson.edu
  53442. Follow-up: comp.parallel
  53443. Path: bounce-back
  53444. Newsgroups: comp.parallel
  53445. From: " (Zdenek Sekera)" <zdenek@craysun6.epfl.ch>
  53446. Subject: Position offered at Cray Research Switzerland
  53447. Reply-To: zs@cray.com
  53448. Organization: Cray Research (Switzerland) S.A.
  53449.  
  53450.             SENIOR or POSTDOCTORAL COMPUTATIONAL PHYSICIST
  53451.  
  53452.                      CRAY RESEARCH (Switzerland)
  53453.  
  53454.    CRAY RESEARCH (Switzerland) has a vacancy within the framework of
  53455. the Parallel Application Technology Program (PATP) established in
  53456. collaboration with the Ecole Polytechnique Federale de Lausanne (EPFL),
  53457. Switzerland. This program is aimed at the development of scientific
  53458. and technical applications for the massively parallel computer, the
  53459. Cray T3D. 
  53460.  
  53461.    We are presently looking for an experienced computational physicist
  53462. having a solid background in multidimensional scientific simulation on
  53463. supercomputers and some experience with parallel architectures and
  53464. programming methodologies, to join the Plasma Physics Team of EPFL
  53465. (Centre de Recherches en Physique des Plasmas, CRPP). The applicant will
  53466. be part of the research group developing/porting various hyperfrequency-
  53467. device and plasma-physics codes to the T3D. The position requires a strong
  53468. interest in taking up the unique challenge of contributing to the expansion
  53469. of parallel computing technology in plasma physics and fusion research,
  53470. good communication skills and the ability to bring computer science,
  53471. numerical analysis and physics together. An experience in particle
  53472. simulation (for the solution of kinetic transport equations) would be
  53473. highly desirable. Knowledge of Fortran is absolutely essential.
  53474.  
  53475.    The position is available from 1 January 1994 for a period of 18 months,
  53476. with the possible extension of another 18 months.
  53477.  
  53478.    Applications, including a curriculum vitae, list of publications
  53479. and references, should be sent before 31 January 1994 to:
  53480.  
  53481.     Cray Research (Switzerland) S.A.
  53482.     Route de Renens 1
  53483.     CH-1030 Bussigny
  53484.     Switzerland
  53485.     attn. Z.Sekera
  53486.  
  53487. For further information Tel: 41-21-702.25.00 or 41-21-693.22.00
  53488.             Fax: 41-21-701.27.01
  53489.              E-mail: zs@cray.com
  53490.  
  53491.  
  53492.    The Ecole Polytechnique Federale de Lausanne (EPFL), which is one of
  53493. two national technical universities in Switzerland, is situated on the
  53494. northern shore of Lake Geneva overlooking the Swiss Alps. The EPFL is
  53495. comprised of 11 departments actively involved in both research and teaching
  53496. with a total of 4000 students, 140 professors, 1400 research staff, as well
  53497. as additional administrative and technical staff. Excellent computer
  53498. resources are available, consisting of central supercomputers (presently
  53499. a Cray Y-MP M94 and a Cray Y-MP EL file server), as well as other
  53500. computational resources (e.g., high and low level workstations) of the
  53501. various departments and institutes.
  53502.    Access is also available to supercomputers at other Swiss centres. The
  53503. EPFL will install in April 1994 a Cray T3D system with 128 processors (to
  53504. be upgraded to 256). The EPFL is the sole European PATP site; its activities
  53505. will be coordinated with the three corresponding American programs at
  53506. Pittsburgh Supercomputing Center, JPL/Caltech, and LLNL/LANL.
  53507.  
  53508.  
  53509. ---Zdenek Sekera / Cray Research Switzerland
  53510.  
  53511. Approved: parallel@hubcap.clemson.edu
  53512. Newsgroups: comp.parallel
  53513. From: fpst@hubcap.clemson.edu (Steve Stevenson-Moderator) 
  53514. Subject: Seasons Greetings
  53515.  
  53516. I am turning the reins over to a new group of moderators right after the
  53517. first of the year. I want to take this opportunity to wish everyone
  53518. piece and happiness in the coming year. I have enjoyed my tenure at the
  53519. helm and I certainly will continue using comp.parallel as a mechanism
  53520. to stay abreast. I will also continue to maintain parlib. In fact, I
  53521. will WWW-ize parlib shortly.
  53522.  
  53523. Again, thanks to all who have made this job easy over the years.
  53524.  
  53525. Steve
  53526.  
  53527. =========================== MODERATOR ==============================
  53528. Steve Stevenson                            fpst@hubcap.clemson.edu
  53529. Administrative address                     steve@hubcap.clemson.edu
  53530. Clemson University, Clemson, SC 29634-1906 (803)656-5880.mabell
  53531. Wanted: Sterbenz, P. Floating Point Computation
  53532.  
  53533. Approved: parallel@hubcap.clemson.edu
  53534. Follow-up: comp.parallel
  53535. Path: bounce-back
  53536. Newsgroups: comp.parallel
  53537. From: ara@zurich.ai.mit.edu (Allan Adler)
  53538. Subject: Re: APR News Release
  53539. Organization: M.I.T. Artificial Intelligence Lab.
  53540. References: <1993Dec22.131528.6943@hubcap.clemson.edu>
  53541.  
  53542. Why not post advertising on Compuserve where it is acceptable?
  53543.  
  53544. Allan Adler
  53545. ara@altdorf.ai.mit.edu
  53546.  
  53547. Approved: parallel@hubcap.clemson.edu
  53548. Follow-up: comp.parallel
  53549. Path: bounce-back
  53550. Newsgroups: comp.parallel
  53551. From: sscott@mcs.kent.edu (Stephen Scott)
  53552. Subject: Re: Job advertisement in Switzerland (computational physicist)
  53553. Date: 23 Dec 1993 18:57:22 GMT
  53554. Organization: Kent State University
  53555. References: <1993Dec23.160027.12360@hubcap.clemson.edu>
  53556.  
  53557. In article <1993Dec23.160027.12360@hubcap.clemson.edu>, Marie-Christine Sawley <sawley@sic.epfl.ch> writes:
  53558. |> 
  53559. |>              YOUNG COMPUTATIONAL PHYSICIST
  53560. |> 
  53561. |>   Swiss Federal Institute of Technology of Lausanne (EPFL)
  53562. |> 
  53563. |> 
  53564. |> The EPFL has a vacancy  within the framework of the Parallel 
  53565. |> Application   Technology   Program  (PATP)   established  in  
  53566. |> collaboration with CRAY RESEARCH Inc.  This program is aimed at  
  53567. |> the  development  of  scientific  applications  for  the massively 
  53568. |> parallel computer, the Cray T3D.  
  53569. |> 
  53570. |>   We are presently looking for a young computational physicist 
  53571. |> (less than 30 years old, PhD or diploma, preferably from plasma 
  53572.     ^^^^^^^^^^^^^^^^^^^^^^
  53573.  
  53574. I wonder if an age specification like this is legal?  Perhaps since
  53575. this is posted for a position in Switzerland it is legal. However, if
  53576. posted for a position in the USA I believe it would be (should be)
  53577. considered discriminatory.
  53578.  
  53579. I believe the ACM National Office has policies against this type of
  53580. restriction in their position announcements. They want you to say
  53581. things like "less than 5 years from finish of Ph.D".
  53582.  
  53583. I don't want to cause any problems over this. I am just curious as I
  53584. have recently noticed a few postings in various net groups with
  53585. specific restrictions that I would consider somewhat discriminatory by
  53586. USA standards.
  53587.  
  53588. stephen.
  53589.  
  53590. Approved: parallel@hubcap.clemson.edu
  53591. Follow-up: comp.parallel
  53592. Path: bounce-back
  53593. Newsgroups: comp.parallel
  53594. From: parallel@netcom.com (B. Mitchell Loebel)
  53595. Subject: The PARALLEL Processing Connection - What Is It?
  53596. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  53597.  
  53598. The PARALLEL Processing Connection is an entrepreneurial 
  53599. association; we mean to assist our members in spawning very 
  53600. successful new businesses involving parallel processing.
  53601.  
  53602. Our meetings take place on the second Monday of each month at 
  53603. 7:15 PM at Sun Microsystems at 901 South San Antonio Road in 
  53604. Palo Alto, California. Southbound travelers exit 101 at San 
  53605. Antonio ; northbound attendees also exit at San Antonio and take the 
  53606. overpass to the other side of 101. There is an $10 visitor fee for non-
  53607. members and members ($50 per year) are admitted free. Our phone 
  53608. number is (408) 732-9869 for a recorded message about upcoming 
  53609. meetings; recordings are available for those who can't attend -
  53610. please inquire.
  53611.  
  53612. Since the PPC was formed in late 1989 many people have sampled 
  53613. it, found it to be very valuable, and even understand what we're up 
  53614. to. Nonetheless, certain questions persist. Now, as we approach our 
  53615. fifth year of operation, perhaps we can and should clarify some of 
  53616. the issues. For example:
  53617.  
  53618. Q.  What is PPC's raison d'etre?
  53619. A.  The PARALLEL Processing Connection is an entrepreneurial 
  53620. organization intent on facilitating the emergence of new businesses. 
  53621. PPC does not become an active member of any such new entities, ie: 
  53622. is not itself a profit center.
  53623.  
  53624. Q.  The issue of 'why' is perhaps the most perplexing. After all, a 
  53625. $50 annual membership fee is essentially free and how can anything 
  53626. be free in 1994? What's the payoff? For whom?
  53627. A.  That's actually the easiest question of all. Those of us who are 
  53628. active members hope to be a part of new companies that get spun 
  53629. off; the payoff is for all of us -- this is an easy win-win! Since 
  53630. nothing else exists to facilitate hands-on entrepreneurship, we 
  53631. decided to put it together ourselves. 
  53632.  
  53633. Q.  How can PPC assist its members?
  53634. A.  PPC is a large technically credible organization. We have close 
  53635. to 100 paid members and a large group of less regular visitors; we 
  53636. mail to approximately 500 engineers and scientists (primarily in 
  53637. Silicon Valley). Major companies need to maintain visibility in the 
  53638. community and connection with it; that makes us an important 
  53639. conduit. PPC's strategy is to trade on that value by collaborating 
  53640. with important companies for the benefit of its members. Thus, as 
  53641. an organization, we have been able to obtain donated hardware, 
  53642. software, and training and we've put together a small development 
  53643. lab for hands-on use of members at our Sunnyvale office. Further, 
  53644. we've been able to negotiate discounts on seminars and 
  53645. hardware/software purchases by members. Most important, 
  53646. alliances such as we described give us an inside opportunity to 
  53647. JOINT VENTURE SITUATIONS.
  53648.  
  53649. Q.  As an attendee, what should I do to enhance my opportunities?
  53650. A.  Participate, participate, participate. Many important industry 
  53651. principals and capital people are in our audience looking for the 
  53652. 'movers'!
  53653.  
  53654. For further information contact:
  53655.  
  53656. -- 
  53657. B. Mitchell Loebel                                      parallel@netcom.com 
  53658. Director - Strategic Alliances and Partnering                  408 732-9869 
  53659. PARALLEL Processing Connection 
  53660.  
  53661. Approved: parallel@hubcap.clemson.edu
  53662. Follow-up: comp.parallel
  53663. Path: bounce-back
  53664. Newsgroups: comp.parallel
  53665. From: parallel@netcom.com (B. Mitchell Loebel)
  53666. Subject: The PARALLEL Processing Connection - January Meeting Notice
  53667. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  53668. Date: Fri, 24 Dec 1993 01:48:48 GMT
  53669.  
  53670. January 10th - Parallel Programming Tools - What Do We Have? - 
  53671. What Do We Need? - What's Coming?
  53672.  
  53673. Providing programming tools for parallel machines is essential if the 
  53674. computing power of these machines is to be actualized for real world 
  53675. users.  On January 10th, Dr. Doreen Cheng of NASA Ames will 
  53676. describe existing parallelization tools, libraries, debuggers, 
  53677. performance tuning tools, and network resource management tools.  
  53678. She plans to compare the tools in each category from the user's and 
  53679. designer's point of views.  Finally, Doreen will point out the future 
  53680. research and development directions in each of the categories.
  53681.  
  53682. A discussion of member entrepreneurial projects currently underway 
  53683. will begin at 7:15PM and the main meeting will start promptly at 
  53684. 7:45PM at Sun Microsystems at 901 San Antonio Road in Palo 
  53685. Alto. This is just off the southbound San Antonio exit of 101.  
  53686. Northbound travelers also exit at San Antonio and take the overpass 
  53687. to the other side of 101. Recordings are available for those who can't 
  53688. attend - please inquire.
  53689.  
  53690. Please be prompt; as usual, we expect a large attendance; don't be 
  53691. left out or left standing. There is a $10 fee for non-members and 
  53692. members will be admitted free.
  53693.  
  53694. -- 
  53695. B. Mitchell Loebel                                      parallel@netcom.com 
  53696. Director - Strategic Alliances and Partnering                  408 732-9869 
  53697. PARALLEL Processing Connection 
  53698.  
  53699. Approved: parallel@hubcap.clemson.edu
  53700. Follow-up: comp.parallel
  53701. Path: bounce-back
  53702. Newsgroups: comp.parallel
  53703. From: farhat@argos.enst.fr (Jocelyne Farhat)
  53704. Subject: Threads' performance (Summary)
  53705. Date: 24 Dec 1993 09:23:43 GMT
  53706. Organization: Telecom Paris, France
  53707.  
  53708. In return to my article posted on threads' performance:
  53709.  
  53710.  
  53711. > I am looking for performance measurements of different thread 
  53712. > systems (for example those of the systems Mach, Chorus and Solaris,
  53713. > the Mach C Threads and SUN LWP libraries, and the POSIX standard,etc...)
  53714. > to complete my bibliographical work on the subject.
  53715. > Does anyone know or have any that have been already done?
  53716. > Merci beaucoup.
  53717. > Jocelyne.
  53718.  
  53719. > P.S. Please send replies to farhat@inf.enst.fr
  53720.  
  53721.  
  53722. A few days ago, I posted a request for performance measurements on 
  53723. various kinds of thread systems. I would like to thank all the persons
  53724. who responded to it. I must say that I have received few answers but
  53725. a lot of requests for summary. Franckly, the requests were "much much"
  53726. greater than the answers.
  53727.  
  53728. In what follows I list the references that interested me most and that
  53729. used in my work. I was disppointed to find out that little work has
  53730. been published on thread performance. The measurements I collected
  53731. are, of course, not homogeneous being done on a variety of processors
  53732. using different benchs.
  53733.  
  53734.  
  53735. _______________________________________________________________________________
  53736.  
  53737.  
  53738. [POW 91]    M.L. Powell et al. "SunOS Multi-thread Architecture." USENIX 
  53739.         Winter 1991, Dallas, Texas. 
  53740. [BER 88]    B. Bershad et al. "PRESTO: A System for Object-oriented Parallel
  53741.          Programming". Software Practice and Experience, Vol 18(8), 
  53742.         pp.713-732, August 1988.
  53743. [AND 91]    T.E. Anderson et al. "Scheduler Activations: Effective Kernel 
  53744.         Support for the User-Level Management of Parallelism". Proc 13th
  53745.          symp on O.S. Principles, ACM, pp. 95-109, 1991.
  53746. [FAU 90]    J.E.Faust and H.M.Levy "The Performance of an Object-Oriented 
  53747.         Threads Package". Proceedings on Object-Oriented Programming: 
  53748.         Systems, Languages, and Applications, Canada, Octobre 1990
  53749. [AND 89]    T.E.Anderson et al. "The Performance and Implications of Thread 
  53750.         Management Alternatives for Shared-Memory Multiprocessors". IEEE
  53751.         Tr on Computers, Vol. 38, No. 12, pp 1631-1644, December 1989
  53752. [MUE 93]    F.Mueller  "A Library Implementation of POSIX Threads Under UNIX
  53753.          Winter" USENIX, January 25-29 1993, San Diego,CA.
  53754. [BER 92]    B.N. Bershad, R.P. Draves and A. Forin. "Using Microbenchmarks 
  53755.         to Evaluate System Performance". Proceedings of the Third 
  53756.         Workshop on Workstation Operating Systems (WWOS-3), April 1992.
  53757. [DRA 91]    R.P Draves et al. "Using Continuations to Implement Thread. 
  53758.         Management and Communication in O.S.", Proc 13th symp on O.S. 
  53759.         Principles, ACM, P122-136,1991
  53760. [INO 91]    S.Inohara and K.Kato and T.Masuda, "Thread Facility Based on 
  53761.         User/Kernel Cooperation in the {XERO} Operating System" in 
  53762.         Proceedings of the fifteenth IEEE International Computer Systems
  53763.          and Applications Conference (IEEE Computer Society), pages 
  53764.         398--405, September1991, 
  53765. [INO 93]    S Inohara and K.Kato and T.Masuda "'Unstable Threads' Kernel 
  53766.         Interface for Minimizing the Overhead of Thread Switching" in 
  53767.         Proceedings of the 7th IEEE International Parallel Processing 
  53768.         Symposium, pp 149--155, April 1993
  53769.  
  53770. _______________________________________________________________________________
  53771.  
  53772.  
  53773. Merci encore une fois.
  53774.  
  53775. Jocelyne.
  53776.  
  53777. -----------------------------------
  53778. Jocelyne Farhat
  53779. Telecom Paris
  53780. Departement Informatique
  53781. Tel: 33-1-45-81-79-95
  53782. e-mail: farhat@inf.enst.fr
  53783. -----------------------------------
  53784.  
  53785.  
  53786.  
  53787. Approved: parallel@hubcap.clemson.edu
  53788. Follow-up: comp.parallel
  53789. Path: bounce-back
  53790. Newsgroups: comp.parallel
  53791. From: dfk@dartmouth.edu (David Kotz)
  53792. Subject: Re: Seasons Greetings
  53793. Date: 23 Dec 1993 17:25:47 GMT
  53794. Organization: Dartmouth College, Hanover, NH
  53795. References: <1993Dec23.160058.12698@hubcap.clemson.edu>
  53796.  
  53797. In article <1993Dec23.160058.12698@hubcap.clemson.edu> fpst@hubcap.clemson.edu (Steve Stevenson-Moderator)  writes:
  53798.  
  53799.    I am turning the reins over to a new group of moderators right after the
  53800.    first of the year. I want to take this opportunity to wish everyone
  53801.    piece and happiness in the coming year. I have enjoyed my tenure at the
  53802.    helm and I certainly will continue using comp.parallel as a mechanism
  53803.    to stay abreast. I will also continue to maintain parlib. In fact, I
  53804.    will WWW-ize parlib shortly.
  53805.  
  53806.    Again, thanks to all who have made this job easy over the years.
  53807.  
  53808.    Steve
  53809.  
  53810. Indeed, many thanks to Steve for his wonderful job as moderator!  I
  53811. think I speak for many in saying that we appreciate his efforts.
  53812.  
  53813. dave
  53814.  
  53815. --
  53816. -----------------
  53817. Mathematics and Computer Science
  53818. Dartmouth College, 6211 Sudikoff Laboratory, Hanover NH 03755-3510
  53819. email: David.Kotz@Dartmouth.edu    or   dfk@cs.dartmouth.edu
  53820.  
  53821. Approved: parallel@hubcap.clemson.edu
  53822. Follow-up: comp.parallel
  53823. Path: bounce-back
  53824. Newsgroups: comp.arch,comp.sys.m68k,comp.parallel
  53825. From: jmc3@engr.engr.uark.edu (Dr. James M. Conrad)
  53826. Subject: HELP:  Paper references to global/local busses
  53827. Keywords: 68040, write posting, bus arbitration
  53828. Reply-To: jmc3@engr.engr.uark.edu
  53829. Organization: University of Arkansas College of Engineering
  53830.  
  53831. Several researchers at the University of Arkansas are designing and 
  53832. building a multiprocessor using the Motorola 68040 chip and
  53833. Multichip Module (MCM) technology.  The design uses dual-port SRAM
  53834. and a global and local bus.  Each SRAM bank is available locally to
  53835. one processor on the local bus and globally to the other processors on 
  53836. the, well, global bus (I hate to appear redundant!!!).
  53837.  
  53838. Those of you who know the 68040 know that it is not ideal for a MP
  53839. application.  We have our reasons for using it (which are beyond the
  53840. question in this posting).  One problem we had to resolve is that
  53841. the 68040 requires control of the bus before it will write (or read)
  53842. data.  To implement the global/local bus, we created two locations
  53843. a write can go:  Straight to the local memory, or straight to a fifo
  53844. buffer.  The fifo buffer (and associated logic) then worry about
  53845. abitration of the global bus.  Reads are a bit more complicated.
  53846.  
  53847. QUESTION:  We know this technique has been used in the past (or we can
  53848. swear we have seen it before), and the phrase "write posting" comes to
  53849. mind.  We cannot find any references in the standard textbooks/journals
  53850. of this technique.
  53851.  
  53852. So, if anyone out there can point us to specific references of this
  53853. technique, please send me an email note (I may not get around to reading
  53854. posts until after the holidays, so the post may already be cleaned off).
  53855.  
  53856. If you are interested in learning about this work, our plan is available
  53857. via anonymous ftp at engr.engr.uark.edu, directory/file
  53858. /pub/cseg/uarkcsegtr1993-3.ps.Z  (postscript, compressed).
  53859. -------------------------------------------------------------------------
  53860. James M. Conrad, Assistant Professor           jmc3@jconrad.engr.uark.edu
  53861. Computer Systems Engineering Department           jmc3@engr.engr.uark.edu
  53862. University of Arkansas, 313 Engineering Hall, Fayetteville, AR 72701-1201
  53863. Dept: (501) 575-6036       Office: (501) 575-6039     FAX: (501) 575-5339
  53864.  
  53865.  
  53866.  
  53867.  
  53868. Approved: parallel@hubcap.clemson.edu
  53869. Follow-up: comp.parallel
  53870. Path: bounce-back
  53871. Newsgroups: comp.parallel
  53872. From: rlr@acsu.buffalo.edu (Raymond L. Roskwitakski)
  53873. Subject: Seeking Grad sch. advice
  53874. Keywords: parallel programing, dynamics, Monte Carlo, quantum chemistry
  53875.  
  53876. [See the Parlib listings
  53877. How to Get Information from Parlib:
  53878.  
  53879. The parlib login on hubcap.clemson.edu is a mail server using the netlib
  53880. software. To get the instructions, send the following mail message:
  53881.  
  53882.         shell> mail parlib@hubcap.clemson.edu
  53883.                Subject:
  53884.                send index
  53885.                .
  53886.         shell> ....
  53887. ]
  53888.  
  53889. Greetings. 
  53890.  
  53891. Presently I have a masters in chemistry.
  53892. I wish to do my PhD in parallel programing.
  53893.  
  53894. I am looking for a proffessor from whom I can learn parallel 
  53895.  
  53896. simulations (dynamics, Monte Carlo) of large systems(proteins, DNA, in solvent).
  53897.  
  53898. If anyone knows of such a proffesor, or a school which encourages
  53899. interdisciplinary work let me know.
  53900.  
  53901. Thanks in advance
  53902.  
  53903. Raymond Roskwitalski
  53904.  
  53905. rlr@autarch.acsu.buffalo.edu
  53906.  
  53907.  
  53908.  
  53909. Approved: parallel@hubcap.clemson.edu
  53910. Follow-up: comp.parallel
  53911. Path: bounce-back
  53912. Newsgroups: comp.parallel
  53913. From: mlevin@husc8.harvard.edu (Michael Levin)
  53914. Subject: a question on C*
  53915. Organization: Harvard University, Cambridge, Massachusetts
  53916.  
  53917.     I have a couple of questions on C* (which I am using on a Sun front
  53918. end to access a CM-2): (I haven't found any of this in the meager
  53919. documentation I've been able to obtain)
  53920.  
  53921. 1. firstly, how do I use the rank() function to sort a parallel
  53922. structure by one of its fields (an int)?
  53923. 2. what is the proper syntax of the write_to_pvar function?
  53924. 3. are things like bzero() overloaded to enable them to work on
  53925. parallel variables? How come the following code (designed to test just
  53926. that) gives me a core dump? Ifthey are not overloaded, then a) how
  53927. does one know which ones (like +,  sin(), etc.) are, and which are
  53928. not? And also, what would be the right way of doing the equivalent
  53929. operation?  Here's the code:
  53930.  
  53931. #include <stdio.h>
  53932. #include "cm/paris.h"
  53933. #include "cm/cmtypes.h"
  53934. #include <cscomm.h>
  53935.  
  53936. shape [4096]par;
  53937.  
  53938. struct moo { char a[100]; int b; };
  53939.  
  53940. main()
  53941. {
  53942.   struct moo:par x;
  53943.   [0]x.a[5] = '8';
  53944.   printf("%c \n",[0]x.a[5]);
  53945.   bzero(x.a,10);
  53946.   printf("Still here. \n");
  53947.   printf("%c \n",[0]x.a[5]);
  53948. }
  53949.     
  53950.  
  53951. Approved: parallel@hubcap.clemson.edu
  53952. Follow-up: comp.parallel
  53953. Path: bounce-back
  53954. Newsgroups: comp.parallel
  53955. From: vip@kvant.munic.msk.su (Andrei I. Massalovitch)
  53956. Subject: Looking for Hecht-Nielsen Corp. e-mail address
  53957. Reply-To: vip@kvant.munic.msk.su
  53958. Organization: NII Kvant
  53959. Summary: Looking for Hecht-Nielsen Corp. e-mail address.
  53960.  
  53961. Dear Colleagues,
  53962.  
  53963. please, do you know if the Hecht-Nielsen Neurocomputer Corp (HNC Inc)
  53964. has an email address ? I've received yesterday their letter by regular
  53965. post and wish to be able to get in touch with someone of them.
  53966. As usual my fax is out of order so e-mail is the fastest and most
  53967. reliable way.
  53968. I also have the promising proposals for other NN-products suppliers.
  53969. Thanks in advance !
  53970. Spasibo !                                        *     *
  53971.                                            *                 *
  53972. Andrei Massalovitch                     *   Merry Christmas !   *
  53973. Parallel Systems Division              *                         *
  53974. S&R Institute KVANT, Moscow             *   Happy  New Year !   *
  53975. E-mail : vip@kvant.munic.msk.su            *                 *
  53976.                                                  *     *
  53977.  
  53978. -- 
  53979.  
  53980. Andrei Massalovitch
  53981.  
  53982.  
  53983.  
  53984.  
  53985. Approved: parallel@hubcap.clemson.edu
  53986. Follow-up: comp.parallel
  53987. Path: bounce-back
  53988. From: sakumar@magnus.acs.ohio-state.edu (Sanjay Kumar)
  53989. Newsgroups: comp.parallel,comp.parallel.pvm
  53990. Subject: Need help: host/node programming on CM-5 using PVM
  53991. Date: 27 Dec 1993 22:48:30 GMT
  53992. Organization: The Ohio State University
  53993.  
  53994. Hi Folks !
  53995.  
  53996. I am trying to move  my workstaion code for a master-slave program to the CM-5.
  53997. Since PVM  now has been ported to CM-5 I had little problem in compiling or
  53998. linking my code. However following problems exist:
  53999.  
  54000. -It seems all slaves are getting spawned on the PM. I linked my program using
  54001.  same makefile as the workstation and didn't even use the cmmd-ld linker.
  54002.  
  54003.  When I ried to link withh cmmd-ld, it gave a bunch of errors namely _main 
  54004.  multiply defined and some unresolved externals like CMM_enable.
  54005.  
  54006. Could someone please enlighten me regarding use of this linker for PVM program?
  54007.  
  54008. - Suppose some of the *.o files are common to both master and slave code,
  54009.  Do I need to comile them separately for master and slave programs ( one with
  54010.  -DCP_CODE switch) ?
  54011.  
  54012.  
  54013. I would appreciate much any help recieved. Thanks a lot in advance.
  54014.  
  54015. -Sanjay Kumar
  54016.  
  54017. Graduate Student, Civil Engg.
  54018. The Ohio State University.
  54019. E-mail: skumar@cad1.eng.ohio-state.edu
  54020.  
  54021.  
  54022.  
  54023. Approved: parallel@hubcap.clemson.edu
  54024. Follow-up: comp.parallel
  54025. Path: bounce-back
  54026. Newsgroups: comp.parallel
  54027. From: thiebaut@sophia.smith.edu (Dominique Thiebaut)
  54028. Subject: *Wanted* Run Time on Data Parallel Machine
  54029. Organization: Smith College, Northampton, MA, USA
  54030.  
  54031. I am looking for an institution or company willing to give free access to
  54032. its data parallel machine to run programs written in Parallaxis by students
  54033. taking a course in parallel processing.
  54034.  
  54035. The course will be taught in the Spring of 1994, at Smith College, and 
  54036. data parallelism will be one of three paradigms investigated.
  54037.  
  54038. Approximately 12 students will be taking the course, and will need
  54039. access to a data parallel machine for about one month. (If we cannot get
  54040. access to a real machine, we will have to use simulators running on 486 PCs 
  54041. and Sparc workstations).
  54042.  
  54043. If your institution, department, or company is interested in supporting
  54044. women (Smith is an all-women college) in the Sciences by granting
  54045. access to your computing facilities, please send me mail.  I will be
  54046. happy to give you more details and/or  issue a more formal request.
  54047.  
  54048. ==============================================================================
  54049. Prof. Dominique Thiebaut        thiebaut@sophia.smith.edu
  54050. Dept. Computer Science          (413) 253 5740
  54051. Smith College
  54052. Northampton, MA 01063
  54053. ==============================================================================
  54054.  
  54055.  
  54056. Approved: parallel@hubcap.clemson.edu
  54057. Follow-up: comp.parallel
  54058. Path: bounce-back
  54059. Newsgroups: comp.parallel
  54060. From: callewis@netcom.com (David Scott Lewis)
  54061. Subject: FREE E-Newsletter on Advances in Computing
  54062. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  54063. Date: Tue, 28 Dec 1993 03:51:23 GMT
  54064. Apparently-To: comp-parallel@uunet.uu.net
  54065.  
  54066. * * *  P R E S S   R E L E A S E  * * *  P R E S S   R E L E A S E  * * *
  54067.  
  54068. B R I E F   R E L E A S E
  54069.  
  54070. FREE NEWSLETTER
  54071.  
  54072. Free, electronic newsletter features article summaries on new generation
  54073. computer and communications technologies from over 100 trade magazines
  54074. and research journals; key U.S. & international daily newspapers, news
  54075. weeklies, and business magazines; and, over 100 Internet mailing lists &
  54076. USENET groups.  Each monthly issue includes listings of forthcoming &
  54077. recently published technical books and forthcoming shows & conferences. 
  54078. Bonus: Exclusive interviews with technology pioneers.  E-mail
  54079. subscription requests to: listserv@ucsd.edu  (Leave the "Subject" line
  54080. blank.)  In the body of the message, type: SUBSCRIBE HOTT-LIST (do not
  54081. include first or last names)
  54082.  
  54083.  
  54084. * * *  P R E S S   R E L E A S E  * * *  P R E S S   R E L E A S E  * * *
  54085.  
  54086. G E N E R A L   R E L E A S E
  54087.  
  54088. HOTT -- Hot Off The Tree -- is a FREE monthly electronic newsletter 
  54089. featuring the latest advances in computer, communications, and
  54090. electronics technologies.  Each issue provides article summaries on
  54091. new & emerging technologies, including VR (virtual reality), neural
  54092. networks, PDAs (personal digital assistants), GUIs (graphical user
  54093. interfaces), intelligent agents, ubiquitous computing, genetic &
  54094. evolutionary programming, wireless networks, smart cards, video phones,
  54095. set-top boxes, nanotechnology, and massively parallel processing.  
  54096.  
  54097. Summaries are provided from the following sources:
  54098.  
  54099. Wall Street Journal, New York Times, Los Angeles Times, Washington Post, 
  54100.   San Jose Mercury News, Boston Globe, Financial Times (London) ...
  54101.  
  54102. Time, Newsweek, U.S. News & World Report ...
  54103.  
  54104. Business Week, Forbes, Fortune, The Economist (London), Nikkei Weekly 
  54105.   (Tokyo), Asian Wall Street Journal (Hong Kong) ...
  54106.  
  54107. over 50 trade magazines, including Computerworld, InfoWorld, Datamation,
  54108.   Computer Retail Week, Dr. Dobb's Journal, LAN Times, Communications
  54109.   Week, PC World, New Media, VAR Business, Midrange Systems, Byte ...
  54110.  
  54111. over 50 research journals, including ** ALL ** publications of the IEEE
  54112.   Computer and Communications Societies, plus technical journals
  54113.   published by AT&T, IBM, Hewlett Packard, Fujitsu, Sharp, NTT, Siemens,
  54114.   Philips, GEC ...
  54115.  
  54116. over 100 Internet mailing lists & USENET discussion groups ...
  54117.  
  54118. plus ...
  54119.  
  54120. listings of forthcoming & recently published technical books and
  54121.   forthcoming trade shows & technical conferences
  54122.  
  54123. BONUS:
  54124.  
  54125. Exclusive interviews with technology pioneers ... the next issue features 
  54126. an interview with Mark Weiser, head of Xerox PARC's Computer Science Lab
  54127.  
  54128.  
  54129. TO REQUEST A FREE SUBSCRIPTION, CAREFULLY FOLLOW THE INSTRUCTIONS BELOW
  54130.  
  54131. Send subscription requests to:
  54132.   listserv@ucsd.edu
  54133.  
  54134. Leave the "Subject" line blank
  54135.  
  54136. In the body of message input:
  54137.   SUBSCRIBE HOTT-LIST
  54138.  
  54139. Note: Do *not* include first or last names following 
  54140.       "SUBSCRIBE HOTT-LIST"
  54141.  
  54142. The HOTT mailing list is automatically maintained by a computer located
  54143. at the University of California at San Diego.  The system automatically
  54144. responds to the sender's return path.  Hence, it is necessary to send
  54145. subscription requests directly to the listserv at UCSD.  (I cannot make
  54146. modifications to the list ... nor do I have access to the list.)  If you
  54147. have problems and require human intervention, contact:
  54148.   hott@ucsd.edu
  54149.  
  54150. The next issue of the revived HOTT e-newsletter is scheduled for
  54151. transmission in late January/early February.
  54152.  
  54153. Please forward this announcement to friends and colleagues, and post to
  54154. your favorite bulletin boards.  Our objective is to disseminate the
  54155. highest quality and largest circulation compunications (computer &
  54156. communications) industry newsletter.
  54157.  
  54158. I look forward to serving you as HOTT's new editor.  Thank you.
  54159. -- 
  54160.     ***********************************************************************
  54161.     *  David Scott Lewis                                                  *
  54162.     *  Editor-in-Chief and Book & Video Review Editor                     *
  54163.     *  IEEE Engineering Management Review                                 *
  54164.     *   (the world's largest circulation "high tech" management journal)  *
  54165.     *  Internet address: d.s.lewis@ieee.org      Tel: +1 714 662 7037     *
  54166.     *  USPS mailing address: POB 18438 / IRVINE CA 92713-8438  USA        *
  54167.     ***********************************************************************
  54168.  
  54169.  
  54170. Approved: parallel@hubcap.clemson.edu
  54171. Follow-up: comp.parallel
  54172. Path: bounce-back
  54173. Newsgroups: comp.parallel,comp.parallel.pvm
  54174. From: vchagant@uahcs2.cs.uah.edu (Venkata Chaganti)
  54175. Subject: What is the equelent of csend()/intel to nwrite()/nCUBE
  54176. Sender: vchagant@uahcs2.cs.uah.edu (Venkata Chaganti)
  54177. Reply-To: vchagant@uahcs2.cs.uah.edu (Venkata Chaganti)
  54178. Organization: Computer Science Dept., Univ. of Alabama-Huntsville
  54179. Date: Tue, 28 Dec 93 17:41:22 GMT
  54180. Apparently-To: comp-parallel@rutgers.edu
  54181.  
  54182. Hi INTEL/nCUBE GURUS
  54183.  
  54184.  
  54185. I was given a code written for intel machine and asked to port to
  54186. nCUBE. I don't have intel manuals. 
  54187. Please, some one could help me how i can write the following commands
  54188. in intel to nCUBE.
  54189.  
  54190. msid = irecv(kxp,g,2*npr*kxp)
  54191. if(...)
  54192.         csend(1+kxp,f,2*npr*kxp,kb-1,0)
  54193.  else
  54194.         csend(1+kxp,f,2*npr*kxp,kb+1,0)
  54195.  endif
  54196.  call msgwait(msid)
  54197.  
  54198. Actually i would like to know the what each parameter means in 
  54199. csend(),irecv(),msgwait()
  54200.  
  54201. what is the efficient way to use nread() and nwrite() in ncube to equalize 
  54202. it.
  54203.  
  54204. Thanks 
  54205. kris chaganti
  54206. chaganti@ebs330.eb.uah.edu
  54207. or
  54208. chaganti@uahcs2.cs.uah.edu
  54209.  
  54210.  
  54211.  
  54212.  
  54213.  
  54214. Approved: parallel@hubcap.clemson.edu
  54215. Follow-up: comp.parallel
  54216. Path: bounce-back
  54217. Newsgroups: comp.sys.transputer,comp.parallel
  54218. From: jap@minerva.inesc.pt (Joa~o Anto'nio Madeiras Pereira)
  54219. Subject: TCP/IP under Parsytec Helios 1.2.1 (Rel. 910701)
  54220. Sender: usenet@inesc.inesc.pt
  54221. Nntp-Posting-Host: minerva-2.inesc.pt
  54222. Organization: INESC - Inst. Eng. Sistemas e Computadores, LISBOA. PORTUGAL.
  54223. Date: Tue, 28 Dec 1993 17:13:32 GMT
  54224. Apparently-To: comp-parallel@inesc.inesc.pt
  54225.  
  54226. Hi, netters,
  54227.  
  54228. We are trying to install the Parsytec Helios Ethernet (Rel. 910111 Ver 1.2; 
  54229. MS-DOS systems) on a MultiCluster2-16 machine with a TPM-ETN board and 
  54230. running Parsytec Helios PC (Rel. 910701 Ver. 1.2.1).
  54231. Unfortunately we don't have the gdi program,
  54232. (it's said that gdi is distributed with the Rel. 910701) that generates
  54233. the devinfo conf. file in order for the TCP/IP server select the 
  54234. ethernet device driver.We have the driver for TPM-ETN board and
  54235. the devinfo.net file but not the gdi program.
  54236.  
  54237. Can a good soul help us? Please ?
  54238.  
  54239.  
  54240.     Thanx in advance
  54241.     Joao Pereira
  54242.  
  54243. Joao Antonio Madeiras Pereira                                 +
  54244. INESC - Instituto de Engenharia de Sistemas e Computadores    +
  54245. Rua Alves Redol, 9 -2o DTO                                    +
  54246. Apartado 10105    1017 Lisboa PORTUGAL                          +
  54247. Approved: parallel@hubcap.clemson.edu
  54248. Follow-up: comp.parallel
  54249. Path: bounce-back
  54250. Newsgroups: comp.parallel
  54251. From: mirth@MCS.COM (Gavin S. Patton)
  54252. Subject: Origami Port
  54253. Date: 28 Dec 1993 17:06:51 -0600
  54254. Organization: Another MCSNet Subscriber, Chicago's First Public-Access Internet!
  54255. X-Newsreader: TIN [version 1.2 PL2]
  54256.  
  54257. [I have ported origami to x-windows as an experiment. You have to make
  54258.  the original think it's using Curses. Not hard.
  54259.  
  54260.  The alternative is to use the folding editor in gnu emacs.
  54261.  
  54262.  Steve
  54263. ]
  54264.  
  54265. Hi, all.
  54266. I fell in love with the origami editor, and use it for the (somewhat base)
  54267. purpose of editing my Foxpro application files.  Works great!  HOWEVER...
  54268.  
  54269. I'm interested in porting it to Windows (gasp!) and increasing the file 
  54270. size it can handle.  Does anyone have any suggestions (other than not
  54271. to do it in Windows) or tips?  Has this already been tried and either
  54272. resulted in a non-viable program -or- an assassination attempt?  I have
  54273. the source for version 1.6 and access to several C compilers, including
  54274. Visual C++, QuickC for Windows, and GNU G++.
  54275.  
  54276. I know, this isn't very parallel, but I don't have the resources to play
  54277. with that stuff yet.  I post here because I found origami while looking
  54278. through an ftp site catering to parallel processing.
  54279.  
  54280. --------------------- Gavin
  54281.  
  54282.  
  54283. Approved: parallel@hubcap.clemson.edu
  54284. Path: bounce-back
  54285. Newsgroups: comp.parallel
  54286. From: rick@cs.arizona.edu  (Rick Schlichting)
  54287. Subject: Kahaner Report: Fujitsu's 2nd Parallel Computing WS (PCW'93)
  54288. Followup-To: comp.research.japan
  54289. Date: 28 Dec 1993 20:51:26 -0700
  54290. Organization: University of Arizona CS Department, Tucson AZ
  54291.  
  54292.   [Dr. David Kahaner is a numerical analyst on sabbatical to the 
  54293.    Office of Naval Research-Asia (ONR Asia) in Tokyo from NIST.  The 
  54294.    following is the professional opinion of David Kahaner and in no 
  54295.    way has the blessing of the US Government or any agency of it.  All 
  54296.    information is dated and of limited life time.  This disclaimer should 
  54297.    be noted on ANY attribution.]
  54298.  
  54299.   [Copies of previous reports written by Kahaner can be obtained using
  54300.    anonymous FTP from host cs.arizona.edu, directory japan/kahaner.reports.]
  54301.  
  54302. From: 
  54303.  Dr. David K. Kahaner
  54304.  US Office of Naval Research Asia
  54305.  (From outside US):  23-17, 7-chome, Roppongi, Minato-ku, Tokyo 106 Japan
  54306.  (From within  US):  Unit 45002, APO AP 96337-0007
  54307.   Tel: +81 3 3401-8924, Fax: +81 3 3403-9670
  54308.   Email: kahaner@cs.titech.ac.jp
  54309. Re: Fujitsu's 2nd Parallel Computing WS (PCW'93) 11/93 Kawasaki Japan
  54310. 12/28/93 (MM/DD/YY)
  54311. This file is named "ap1000ws.93"
  54312.  
  54313. ABSTRACT. Fujitsu's second Parallel Computing Workshop (PCW'93), held
  54314. Nov 11 1993 at Fujitsu's Parallel Computing Research Facilities,
  54315. Kawasaki Japan, is summarized. PCW is an opportunity for researchers who
  54316. are using Fujitsu's AP1000 distributed memory parallel computer to
  54317. describe their work. Significant collaborations are reported between the
  54318. Australian National University and Fujitsu.
  54319.  
  54320.  
  54321. I included a brief sketch of PCW'93 in a more general earlier report
  54322. ("j-hpc.93", 8 Dec 1993). Some sections of that are reproduced here,
  54323. along with additional details.
  54324.  
  54325. By now, there are several Japanese commercial parallel computers, the
  54326. two most notable being Fujitsu's AP 1000 and NEC's Cenju-3. Hitachi has
  54327. announced plans to use HP's PA-RISC architecture to design and build a
  54328. one thousand node MPP, and a somewhat more detailed product announcement
  54329. has just occurred.  The AP is a 2-D torus machine. Fujitsu is well ahead
  54330. of other Japanese companies in providing access to its parallel
  54331. computers. The company has set up a parallel computing research facility
  54332. near Tokyo, with two 64cpu AP systems and one 1024 system (the maximum
  54333. AP configuration). There is also another 64cpu system at Fujitsu's
  54334. Makuhari facility. Associated with these labs is an extensive animation
  54335. system, including digital VTR, HD-VTR, VHS-VTR, disk recorder,
  54336. distributed disk video, etc. Fujitsu allows researchers worldwide to log
  54337. in via the Internet and access the equipment for general science; at
  54338. their recent parallel computing workshop (PCW'93) it was announced that
  54339. there were over 600 registered uses of this facility (425 in Japan)
  54340. including 13 groups from North America including Oregon State, Oregon
  54341. Graduate Inst, U Utah, U New Hampshire, U California, U Iowa, U
  54342. Illinois, New Jersey Inst of Tech, and others, as well as 11 groups from
  54343. Europe including U Edinburgh, Imperial College, UMIST, Lund U, GMD, ETH,
  54344. and European Molecular Biology Lab.  Primary research topics are in
  54345. computer science, but there is also significant work on computational
  54346. physics, CFD, CAD, etc.
  54347.  
  54348. There are also several APs in Japan outside Fujitsu, for example at
  54349. Kyoto University. An AP has been at the Australian National University
  54350. (ANU) for over two years, and extensive collaborative work is performed
  54351. with Fujitsu. The company is also working toward an agreement for
  54352. similar collaborations with Imperial College London.
  54353.  
  54354. Scientists who are interested in access to one of the APs at Fujitsu's
  54355. research facility, or have other technical questions, should send email
  54356. to one of the addresses listed below.
  54357.  
  54358. The AP is in its third or fourth generation and has evolved from a more
  54359. specialized graphics engine called CAP.  The current system has the
  54360. capability to accept a vector processor for each cpu (Fujitsu's 50MHz
  54361. Micro VP) on an internal bus (LBUS) as an option (called a Numeric
  54362. Calculation Accelerator--NCA by Fujitsu) with 100MFLOP peak performance.
  54363. (Some details of this are given in the paper by Kamimura--see abstract
  54364. below, as well as a few LINPACK benchmarks associated with the NCA.) In
  54365. addition there are definite plans, early in 1994, to upgrade the AP's
  54366. basic cpu from a 25 MHz SPARC to a 50MHz Viking chip set, which will
  54367. significantly improve the basic cell performance.  According to
  54368. researchers at PCW'93, integer performance, such as sorting, is already
  54369. comparable to current generation CM-5's, although floating point is
  54370. worse. Stanton from ANU reports that up to 85% of peak performance was
  54371. obtained on sorting in molecular dynamics computations, and a comparable
  54372. percentage of per cell peak was obtained in distributed BLAS
  54373. applications. Several APs, which have a reputation of being
  54374. exceptionally reliable, are likely to be sold to users at Japanese
  54375. companies and university labs (with and without the new cpu) who are not
  54376. concerned with its lack of commercial software.  The collection of
  54377. registered software (software developed by users and now distributed by
  54378. Fujitsu) is still small but contains packages from ANU, University of
  54379. Tokyo, Science University of Tokyo, and Fujitsu.
  54380.  
  54381. The question that Fujitsu (among others) is studying is whether they
  54382. should push forward with vector/parallel computing, massively parallel
  54383. computing, or some combination of both.  Fujitsu's official word on the
  54384. AP is that "this machine is offered in selected markets to research
  54385. centers," and also that the machine would be suitable as a network
  54386. server.
  54387.  
  54388. Fujitsu's PCW'93, which occurred in Nov 1993 at the company's Kawasaki
  54389. facility suggested several things to me.  (1) I believe that Fujitsu has
  54390. really taken the lead in Japanese parallel computing; by opening up the
  54391. AP to outside users the company has gained an enormous amount of
  54392. experience as well as visibility for their product. Their workshop
  54393. reported an impressive number of applications as well as the usual
  54394. confidence building exercises. (2) The Fujitsu--ANU collaboration is a
  54395. big win for both sides. ANU has become a player in parallel computing
  54396. research; Fujitsu has obtained not only the general experience of this
  54397. group and a window into Western thinking, but more explicitly, several
  54398. very specific pieces of useful software (including an extended utilities
  54399. kernel, a parallel file system, a nice text retrieval package, system,
  54400. language and compiler tools, and a variety of math library software).
  54401. Recently, several of Australia's best computer scientists, who have done
  54402. excellent numerical work on the AP, are now turning their attention to
  54403. the VPP500 (Fujitsu's parallel-vector system), so Fujitsu will derive
  54404. some benefit there too.  At the workshop, both senior company management
  54405. and ANU attendees were very enthusiastic. (3) There is competition
  54406. between VPP and AP groups inside Fujitsu, as these machines originate
  54407. from different divisions.  Based on the workshop I assume that the AP
  54408. side is feeling very good now. 
  54409.  
  54410. A list of titles, authors, and abstracts for PCW'93 follows this report.
  54411.  
  54412. My hosts for PCW'93 were 
  54413.  
  54414.       Mr. Shigeru Sato
  54415.       Board Director
  54416.       Fujitsu Laboratories
  54417.       1015 Kamikodanaka Nakahara-ku
  54418.       Kawasaki 211, Japan
  54419.        Tel: +81 44 777-1111, Fax: +81 44 754-2530
  54420.  
  54421.       Dr. Mitsuo Ishii
  54422.       General Manager, Parallel Computing Research Center
  54423.       Fujitsu Laboratories
  54424.       1015, Kamikodanaka Nakahara-ku, Kawasaki 211 Japan
  54425.        Tel: +81 44 777 1111; Fax: +81 44 754 2666
  54426.        Email: MISHI@FLAB.FUJITSU.CO.JP
  54427.  
  54428. and
  54429.  
  54430.       Mr. Takao Saito
  54431.       Section Manager, Parallel Computing Research Center
  54432.        (same address & fax), Tel: +81 44 754 2670
  54433.        Email: SAITO@FLAB.FUJITSU.CO.JP
  54434.  
  54435. The format for PCW'93 was a morning of talks, in Japanese except for one
  54436. invited speaker (see below), and two afternoon poster sessions totalling
  54437. about 40 papers from research staff in seven countries. Nearly 200
  54438. scientists participated, showing that there is a very high level of
  54439. interest in this technology. The posters were given mostly in English
  54440. and Fujitsu has prepared an English Proceedings containing all the
  54441. papers; a complete copy of this may be obtained by contacting Dr Ishii
  54442. above. Fujitsu also pointed out that the AP has appeared in various
  54443. international journals, including J Nuclear Science & Tech,
  54444. Computational Fluid Dynamics J, Nuclear Physics, and the Journal of the
  54445. Information Processing Society of Japan. Research using the AP has been
  54446. reported at a dozen international conferences, as well as about 80
  54447. Japanese workshops and conferences.
  54448.  
  54449. At the morning session the invited speaker was
  54450.  
  54451.        Prof John Darlington
  54452.        Director of Research, Department of Computing
  54453.        Imperial College of Science, Technology & Medicine
  54454.        180 Queen's Gate
  54455.        London SW7 2BZ UK
  54456.         Tel: +44 71 589 5111 x 5059; Fax: +44 71 581 8024
  54457.         Email: JC@DOC.IC.AC.UK
  54458.  
  54459. His talk, titled "Parallel Computing in Europe, Trends and Speculations"
  54460. focused on two questions, 
  54461.  
  54462.  (1) What will be the characteristics of future applications for
  54463.      parallel machines, and
  54464.  
  54465.  (2) What technologies should we be working on to expedite these
  54466.      applications?
  54467.  
  54468. He concentrated on three main issues as follows.
  54469.  
  54470.   Political
  54471.     Growth in support for high performance computing
  54472.       Application and use (industrial commercial, social)
  54473.       Away from grand challenges
  54474.  
  54475.   Machines for commercial/business applications (e.g. database)
  54476.  
  54477.   Applications are compositions of heterogeneous components involving
  54478.     intensive computation (calculation & inference), data retrieval, and
  54479.     visualization. 
  54480.  
  54481. Darlington concluded his talk with the following observations.
  54482.  
  54483.    (1) (Parallel) programming languages are too low level vehicles to 
  54484.        create and adapt complex applications.
  54485.    (2) We need to create adaptable/composable components and systems
  54486.        with which to build applications out of these components.
  54487.    (3) Application construction should then be the task of domain 
  54488.        specialists.
  54489.    (4) We should build (parallel) application generators,
  54490. and hopes for the emergence of a "parallel application machine tool industry".
  54491.  
  54492.  
  54493. REMARK:
  54494. Fujitsu views their Parallel Computing Research Facility as a mechanism
  54495. connecting the university research community with world markets.  Making
  54496. advanced computing technology available to the research community has
  54497. worked well for US vendors in the sense of getting their products
  54498. exposed and obtaining important feedback. There is no reason to think
  54499. that it will not be equally successful for Fujitsu.
  54500.  
  54501. ----------------------------------------------------------------------
  54502.  
  54503. ABSTRACTS OF PAPERS PRESENTED AT FUJITSU'S 2ND PARALLEL COMPUTING WORKSHOP
  54504.                11 NOV 1993, KAWASAKI JAPAN
  54505.  
  54506. Simulated Annealing Heuristics for Static Task Assignment
  54507. Kazuo Horikawa et al.
  54508. Department of Information Science
  54509. Faculty of Engineering, Kyoto University
  54510.  
  54511. As an approach to the static task assignment problem for parallel
  54512. applications, we propose a modification of simulated annealing.  In
  54513. order to speed up the convergence of this method, we exploit heuristics
  54514. to calculate the generation probabilities of neighboring solutions.  We
  54515. have proposed two heuristics for load balancing and one heuristics for
  54516. reduction of interprocessor communication.  And we examined their effect
  54517. using some random TIGs.  The results proved that the former heuristics
  54518. are very effective at the beginning of the annealing process, while the
  54519. latter improves the score after certain feasible load balance was
  54520. achieved by the former heuristics.  Parallel execution of functional
  54521. programs on loosely coupled multiprocessor systems
  54522.  
  54523. -------------------------------------------------------------
  54524. Tetsurou Tanaka et al.
  54525. (No address)
  54526.  
  54527. It has been suggested that functional programs are suitable for
  54528. programming parallel computers owing to their inherent parallelism.  We
  54529. propose a parallel evaluation model of functional programs based on the
  54530. STG (Spineless Tagless G-machine) model proposed for sequential
  54531. evaluation, and describe our parallel implementation of a functional
  54532. language Gofer on the AP1000 parallel computer.  Porting the PVM
  54533. Distributed Computing Environment to the Fujitsu AP1000
  54534. -------------------------------------------------------------
  54535.  
  54536. C. W. Johnson et al.
  54537. Department of Computer Science
  54538. Australian National University
  54539.  
  54540. The PVM system (Portable Virtual Machine) is a programming environment
  54541. for distributed parallel C and Fortran-based programs.  Originally for
  54542. distributed heterogeneous workstations, it has recently been ported to
  54543. multiprocessors such as the Intel iPSC/2 and Thinking Machines
  54544. Corporation's CM5.
  54545.  
  54546. We have ported the PVM system to the Fujitsu AP1000. We
  54547. describe the process and communications model used for PVM on the AP1000
  54548. and consider further work to improve functionality and performance,
  54549. including changes mooted to the Cell operating system and the structure
  54550. of the host controlling processes.Stride Collective Communication for
  54551. the Fujitsu AP1000
  54552. -------------------------------------------------------------
  54553.  
  54554. Gavin Michael et al.
  54555. Department of Computer Science
  54556. The Australian National University
  54557.  
  54558. In order to provide mechanisms for efficient distribution and retrieval
  54559. of global data arrays is has been necessary to develop the new
  54560. collective communication primitives distribute and concatenate.  These
  54561. primitives are referred to as stride collective communication primitives
  54562. and are similar to the scatter and gather operations on the AP1000.
  54563. However, the stride collective communication primitives operate on both
  54564. B-Net and the T-Net, and are not restricted to two dimensions.  The new
  54565. collective communication primitives exploit the stride DMA capability of
  54566. the message controller on the AP1000.
  54567.  
  54568. These primitives are used to support the distribute directive as defined
  54569. in the High Performance Fortran language specification.  They have also
  54570. been used to support the automatic distribution and retrieval of global
  54571. data arrays.
  54572.  
  54573. The implementation of these communication primitives required minimal
  54574. changes to the AP1000 kernel.  These primitives are available in the
  54575. AP1000 kernel developed at the Australian National University
  54576. sys.anu.
  54577. -------------------------------------------------------------
  54578.  
  54579. Performance Measurement of the Acacia Parallel File System for the
  54580. AP1000 Multicomputer
  54581. Bradley M. Broom
  54582. Department of Computer Science
  54583. The Australian National University
  54584.  
  54585. Acacia is a parallel file system being developed at the Australian
  54586. National University for the AP1000 multi-computer.  Acacia automatically
  54587. distributes data across multiple disks attached to the AP1000 and caches
  54588. recently used data, although the user can explicitly control the way
  54589. file data is accessed and distributed.
  54590.  
  54591. Unlike systems in which the I/O nodes and compute nodes are disjoint.
  54592. Acacia uses option disks attached directly to a subset of the compute
  54593. nodes within the AP1000.  Processing of I/O requests is divided between
  54594. the node that initiates the request, the node on which the data is
  54595. potentially cached, and the node on which it is read from or stored to
  54596. disk.  In the current version of the disk option software, disk accesses
  54597. are synchronous precluding the use of prefetching or write behind.
  54598.  
  54599. This paper presents performance measurements of the Acacia File System
  54600. running on the 128 node/32 option AP1000 installed at the Australian
  54601. National University.  The study includes measurements of read/write
  54602. rates from one compute node to one disk, one compute node to multiple
  54603. disks, and multiple compute nodes to multiple disks.  Additional
  54604. measurements show the effects of different buffer sizes and caching on
  54605. system performance.
  54606. -------------------------------------------------------------
  54607.  
  54608. An Image Fileserver for the AP1000 
  54609. Kazuichi Ooe et al.
  54610. Fujitsu Laboratories Ltd.
  54611.  E-mail:  ooe@flab.fujitsu.co.jp
  54612.  
  54613. We developed a high-performance image fileserver for the AP1000.  We
  54614. analyzed its performance, and confirmed that its speed is 90% of ideal.
  54615. -------------------------------------------------------------
  54616.  
  54617. A Reconfigurable Torus Network
  54618. Kenichi Hayashi et al.
  54619. Fujitsu Laboratories Ltd.
  54620. 1015 Kamikodanaka, Nakahara-ku
  54621. Kawasaki 211, Japan
  54622.  
  54623. Independent subgroups of hypercubic or mesh distributed memory parallel
  54624. processor (DMPP) may be accessed simultaneously by multiple users.
  54625. Partitioning of a torus network, however, is complicated by wraparound
  54626. paths.  We present a novel architecture for a dynamically reconfigurable
  54627. torus where design geometrically folds the torus and intersperses
  54628. switches between designated partitions.  The design avoids excess wiring
  54629. and complex switches, and allows subgroups of processors to be accessed
  54630. independently by different users.  The use of network switches in the
  54631. reconfigurable torus enables efficient global reduction and broadcasts.
  54632. -------------------------------------------------------------
  54633.  
  54634. Data distributed volume rendering on the Fujitsu AP1000
  54635. Raju Karia
  54636. Department of Computer Science
  54637. Australian National University
  54638.  
  54639. A scheme for the visualization of large data volumes using volume
  54640. rendering on distributed memory MIMD system is described.  The data to
  54641. be rendered is decomposed into subvolumes to reside in the local
  54642. memories of the system's nodes.  A partial image of local data is
  54643. generated at each node by ray tracing, and is then composited with
  54644. partial images on other nodes in the correct order to generate the
  54645. complete picture.  Subvolumes whose voxels are classified as being
  54646. mapped to zero opacity are not rendered, providing scope for improvement
  54647. in rendering throughput.  This optimization gives rise to load imbalance
  54648. amongst nodes.  Scattered decomposition is used for load balancing,
  54649. involving an increase in the number of subvolumes, but also creating
  54650. additional overheads due to increases in the number of intersections and
  54651. the number of partial images to be composite.  Hence, such decomposition
  54652. is only effective up to a limit, beyond which, the costs in overheads
  54653. outweigh any potential improvement in throughput.  We demonstrate the
  54654. effect of scattered decomposition on the performance of the data
  54655. distributed volume renderer with some experimental results.
  54656. -------------------------------------------------------------
  54657.  
  54658. Parallel FEM Solution Based on Substructure Method
  54659. Hideo Fukumori et al.
  54660. School of Science and Engineering
  54661. Waseda University, Tokyo Japan
  54662.  
  54663. In this paper, we present an implementation of substructure method on
  54664. the Fujitsu AP1000.
  54665.  
  54666. Substructure Method is one of the methods that has been used for the
  54667. solution of finite element problems and it is applicable for parallel
  54668. computing.
  54669.  
  54670. Substructure Method decomposes the domain of a finite element problem
  54671. into multiple blocks.  First, the solutions for the reduced structure,
  54672. that consists of boundary nodes of the blocks, are calculated.  Then
  54673. solutions for the nodes within each block are obtained.
  54674.  
  54675. The calculation stage of internal nodes can be done independently.  And
  54676. assigning the decomposed blocks to different processors, high parallel
  54677. efficiency can be achieved in this stage, because the calculation in
  54678. this stage can be done in parallel without any need of communication.
  54679.  
  54680. Compared to other methods based on spatial decomposition, substructure
  54681. method allows us more flexible work load distribution to the processors.
  54682.  
  54683. We implemented finite element finite element method program based on
  54684. substructure method.  On two-dimensional Poisson differential equation
  54685. problem with 4096 nodes, speedup ratio of 27.9 on 64 processors was
  54686. obtained. Linear Algebra Research on the AP1000
  54687. -------------------------------------------------------------
  54688.  
  54689. R. P. Brent et al.
  54690. Australian National University
  54691.  
  54692. This paper gives a report on various results on the Linear Algebra
  54693. Project on the Fujitsu AP1000 in 1993.  These include the general
  54694. implementation of Distributed BLAS Level 3 subroutines (for the
  54695. scattered storage scheme).  The performance and user interface issues of
  54696. the implementation will be discussed.  Implementations of distributed
  54697. BLAS-based LU Decomposition, Cholesky Factorization and Star Product
  54698. algorithms will be described.
  54699.  
  54700. The porting of the Basic Fourier Functions, from the Fujitsu-ANU Area-4
  54701. Project, on the AP1000 is also discussed.  While the parallelization of
  54702. the main FFT algorithm only involves communication on a single
  54703. "transposition" step, several optimizations including fast roots of
  54704. unity calculation, are required for its efficient implementation.
  54705.  
  54706. Several more optimizations on the Hestenes Singular Value Decomposition
  54707. algorithm have been investigated, including a BLAS Level 3 like kernel
  54708. for the main computation and partitioning strategies.  A study on how
  54709. all optimizations affect convergence will also be discussed.
  54710.  
  54711. Finally, work on implementing QR Factorization on the AP1000 will be
  54712. discussed, where the Householder QR was found to be more efficient than
  54713. the Givens QR.
  54714. -------------------------------------------------------------
  54715.  
  54716. Progress Report on the Study of the Effect of Presence of Grain-
  54717. Boundaries on Martensitic Transformation
  54718. Tetsuro Suzuki
  54719. Institute of Applied Physics
  54720. University of Tsukuba, Tsukuba Japan
  54721.  
  54722. The purposes of the present author to use AP1000 are twofold.  The first
  54723. is to take advantage of the parallel architecture to study the effect of
  54724. the presence of grain-boundaries on martensitic transformation.  The
  54725. second is to study about education from the standpoint inaccessible
  54726. without experiencing various difficulties encountered using AP1000.
  54727. -------------------------------------------------------------
  54728.  
  54729. Parallelization of 3-D Radiative Heat Transfer Analysis in Nongray Gas
  54730. H. Taniguchi et al.
  54731. Department of Mechanical Engineering
  54732. Hokkaido University, Sapporo Japan
  54733.  
  54734. Parallel computational methods are developed for the Monte Carlo
  54735. analysis of radiative heat transfer in three-dimensional nongray gas
  54736. enclosed by gray walls.  The highly parallel computer AP1000 is used for
  54737. the analysis.  For the nongray gas, a mixture of water vapor and carbon
  54738. dioxide is chosen as the absorbing- emitting medium.  Three types of
  54739. parallelization are studied:  type(1), event parallelization; type(2),
  54740. combination of event parallelization and algorithm parallelization, and
  54741. type(3), memory-saving algorithm of type(2).  When 512 cells are used,
  54742. values of the speed-up ratio of 395, 430 and 370 are obtained for types
  54743. (1), (2) and (3), respectively.  The maximum number of elements which
  54744. can be treated is increased from 1,200 for type(1) to 140,000 for
  54745. type(3).
  54746. -------------------------------------------------------------
  54747.  
  54748. Probabilistic Fracture Mechanics Analysis on Massively Parallel Computer
  54749. AP1000
  54750. Shinobu Yoshimura et al.
  54751. University of Tokyo
  54752.  
  54753. This paper describes a probabilistic fracture mechanics (PFM) computer
  54754. program based on the parallel Monte Carlo (MC) algorithm.  In the
  54755. stratified MC algorithm, a sampling space of probabilistic variables
  54756. such as fracture toughness value, the depth and aspect ratio of an
  54757. initial semi-elliptical surface crack is divided into a number of small
  54758. cells.  Fatigue crack growth simulations and failure judgments of those
  54759. samples are performed cell by cell in parallel.  Coalescence of multiple
  54760. cracks during the fatigue crack growth is considered in the analyses.
  54761. The developed PFM program is implemented on a massively parallel
  54762. computer composed of 512 processors, combined with a function of dynamic
  54763. workload balancing.  As an example, some life extension simulations of
  54764. aged RPV material are performed, taking analysis conditions of normal
  54765. and upset operations of PWRs.  The results who that cumulative breakage
  54766. probabilities of the analyzed model are of an order of 10^{-7} (1/crack)
  54767. and that parallel performance always exceeds 90%.  It is also
  54768. demonstrated that degradation of fracture toughness values due to
  54769. neutron irradiation and probabilistic variation of fracture toughness
  54770. values significantly influence failure probabilities.
  54771. -------------------------------------------------------------
  54772.  
  54773. Domain decomposition program for polymer systems
  54774. David Brown et al.
  54775. Chemistry Department
  54776. University of Manchester Institute of Science and Technology
  54777. Manchester, M60 1QD
  54778. United Kingdom
  54779.  
  54780. A domain decomposition program capable of handling systems containing
  54781. rigid bond constrains and three- and four-body potentials as well as
  54782. non-bonded potentials has been successfully implemented.  This program
  54783. has been thoroughly tested against results obtained using scalar codes
  54784. and benchmarking is in progress together with a production simulation on
  54785. the 1024 PE AP1000.  Two parallel versions of the SHAKE algorithm, which
  54786. solves the bond length constraints problem, have been compared in an
  54787. attempt to optimize this procedure.
  54788. -------------------------------------------------------------
  54789.  
  54790. A new technique to improve parallel automated single layer wire routing
  54791. Hesham Keshk et al.
  54792. Department of Information Science
  54793. Kyoto University
  54794. Yoshida-hon-machi
  54795. Sakyo-ku, Kyoto 606-01
  54796.  
  54797. Automated wire routing is to find a path between two or more network
  54798. pins and this path must not intersect with previous drawn paths.  The
  54799. basic problems of automated wire routing are the long computation time
  54800. and large memory size required.  Recently, several researches tried to
  54801. speed up the routing problem by using parallel computers.  We develop
  54802. two parallel algorithms based on maze running algorithm.  Both of them
  54803. have a new technique in dividing a single layer grid.  These two
  54804. algorithms give high speed specially if the net lengths are small with
  54805. respect to gird dimensions.  In the first algorithm, moving boundaries
  54806. are used in dividing the grid.  The second algorithm can be divided into
  54807. two phases.  In the first phase, we rotate the areas assigned to the
  54808. processors to route all short nets.  In the second phase we use the
  54809. competing processors algorithm to route the remaining nets.
  54810. -------------------------------------------------------------
  54811.  
  54812. Towards a Practical Information Retrieval System for the Fujitsu AP1000
  54813. David Hawking et al.
  54814. Department of Computer Science
  54815. Australian National University
  54816.  
  54817. This paper reports progress in the development of free text
  54818. retrieval systems for the Fujitsu AP1000.  Work is now focussed
  54819. on the classical information retrieval problem, that of
  54820. retrieving documents or articles relevant to a user's query.
  54821.  
  54822. The current version of ftr permits use of the AP1000's DDV
  54823. options for storing text bases, resulting in significant
  54824. decreases in loading times.  A new graphical user interface
  54825. (called retrieve and based on tcl) which provides a user-friendly
  54826. mechanism for invoking the ftr system from remote workstations,
  54827. specifying and carrying out searches, and selecting, retrieving,
  54828. viewing, and storing whole entries from the text base being
  54829. searched.  A range of useful tools is being developed for text
  54830. base administration purposes.
  54831.  
  54832. Initial performance results are presented, and likely future
  54833. directions for the work are outlined.
  54834. -------------------------------------------------------------
  54835.  
  54836. Parallel Computer System for Visual Recognition
  54837. H. Takahashi
  54838. (no address)
  54839.  
  54840. We have developed a parallel computer system for visual recognition by
  54841. Transputers.  We also have implemented a neural network model of visual
  54842. recognition "Neocognitron" on it.  However running time didn't decrease
  54843. in inverse proportion to the number of processors.  From a result of
  54844. analysis, we found the communication time between processors obstructed
  54845. decreasing of the execution time.  In this paper, we propose and examine
  54846. a prediction method of the execution time of the Neocognitron
  54847. application, when the communication and calculation ratio changed.  With
  54848. these results, we want to propose a design guide for dedicated parallel
  54849. computer system architecture and network for a practical image
  54850. recognition and understanding.
  54851. -------------------------------------------------------------
  54852.  
  54853. Futurespace:  a coherent, cached, shared abstract data type
  54854. Paul H. J. Kelly et al.
  54855. Department of Computing
  54856. Imperial College 
  54857. 180 Queen's Gate, London SW7 2BZ United Kingdom
  54858.  
  54859. (no abstract)
  54860. -------------------------------------------------------------
  54861.  
  54862. Design of a Programming Language for Set-Oriented Massively Parallel
  54863. Processing
  54864. Hirofumi Amano et al.
  54865. Department of Computer Science and Communication Engineering
  54866. Kyushu University
  54867.  
  54868. The design of a new massively parallel programming language based on the
  54869. object-parallel approach is reported.  The language gives a more natural
  54870. description to a certain type of applications where one cannot fix the
  54871. number and the topology of the objects involved.  This paper presents
  54872. shortcomings of data-parallel languages, and gives an overview of the
  54873. new massively parallel programming language now under development.
  54874. -------------------------------------------------------------
  54875.  
  54876. Implementation of UtiLisp/C on AP1000
  54877. Eiiti Wada et al.
  54878. University of Tokyo
  54879.  
  54880. Implementation of UtiLisp/C, which is a newly coded version of UtiLisp
  54881. for Sparc workstations, on AP1000 has been attempted.  The goal is to
  54882. reform UtiLisp for AP1000 with a very few C coded lines modified, and a
  54883. small number of special functions added, for distributed memory machines
  54884. so that the basic feeling of parallel programming will be obtained in a
  54885. relatively short time.
  54886.  
  54887. No new fashionable functions often implemented in parallel Lisps, e.g.,
  54888. future and so forth are not yet included; only a set of inter call
  54889. streams mechanisms was added to execute top level eval loops in
  54890. parallel.  The set of the original UtiLisp functions proved well suited
  54891. for use on MIMD machine.
  54892. -------------------------------------------------------------
  54893.  
  54894. An implementation and evaluation of a VPP-Fortran compiler for AP1000
  54895. Tsunehisa Doi et al.
  54896. Fujitsu Laboratories Ltd.
  54897.  
  54898. VPP Fortran, a parallel programming language that makes global address
  54899. space accessible to the programmer, was originally developed to run on
  54900. the Fujitsu VPP500 supercomputer.  We developed a VPP Fortran processor
  54901. that works with the AP1000 distributed-memory parallel computer.  Called
  54902. VPP-Fortran/AP, the processor uses a new mode of data communication,
  54903. called direct remote data access (DRDA), to expedite indirect access via
  54904. index arrays.  This paper discusses possible approaches to implementing
  54905. DRDA and presents results from experiments run on the AP1000.
  54906. -------------------------------------------------------------
  54907.  
  54908. Implementing the PVM (Parallel Virtual Machine) on the AP1000
  54909. Shigenobu Iwashita et al.
  54910. Department of Information Systems
  54911. Interdisciplinary Graduate School of Engineering Sciences
  54912. Kyushu University
  54913. Kasuga, Fukuoka 816 Japan
  54914.  
  54915. (no abstract)
  54916. -------------------------------------------------------------
  54917.  
  54918. Improvement of Communication Performance by Reduction of Traffic
  54919. Conflict in a Parallel Computer
  54920. Hiroyuki Kanazawa et al.
  54921. Fujitsu Ltd.
  54922.  
  54923. Communication within a parallel computer shows as the number of tasks
  54924. communicating with each other increases, because of traffic conflict in
  54925. the processor array.  We improved performance by reducing traffic
  54926. conflict by optimizing task allocation to processors.  We applied
  54927. combinations of min-cut methods and partial enumeration methods to
  54928. allocate tasks to processors at the application software level using the
  54929. Fujitsu AP1000 parallel computer.  A simulation of our new method showed
  54930. that it has better optimization speed and quality than simulated
  54931. annealing for a problem size of 256 cells and 256 tasks.  With genetic
  54932. algorithms, we should be able to find better and faster solutions to
  54933. more complex problems.
  54934. -------------------------------------------------------------
  54935.  
  54936. Using the Bulk-Synchronous Parallel Model with Randomized Shared
  54937. Memory for Graceful Degradation
  54938. Andreas Savva et al.
  54939. Faculty of Engineering
  54940. Tokyo Institute of Technology
  54941. 2-12-1 Ookayama
  54942. Meguro-ku, Tokyo 152
  54943.  
  54944. VSPM, a proposed bridging model for parallel computation, with RSM
  54945. provide an asymptotically optimal emulation of the Parallel Random
  54946. Access Machine (PRAM).  This emulation does not depend on a network
  54947. topology, but on network throughput.  By assuming that processor
  54948. failures do not significantly affect network throughput, we show that it
  54949. is possible to efficiently recover from single processor failures and
  54950. reconfigure a new system that satisfies the same properties as the
  54951. original one.  Results from an implementation on a Massively Parallel
  54952. Processor showing the effect of processor number and global memory size
  54953. on the reconfiguration time are presented.
  54954. -------------------------------------------------------------
  54955.  
  54956. The LINPACK  benchmark on the AP1000 with Numerical Computation
  54957. Accelerators
  54958.  
  54959. Kazuto Kamimura
  54960. Fujitsu Laboratories, Ltd.
  54961. 1015 Kamikodanaka
  54962. Nakahara-ku, Kawasaki 211
  54963.  
  54964. This paper evaluates the performance of the Numerical Computation
  54965. Accelerator (NCA) based on the LINPACK benchmark.  The NCA was developed
  54966. for the AP1000 to improve its computational performance.  We vectorized
  54967. several kernels within the Basic Linear Algebra Subprogram (BLAS), which
  54968. are utilized in the LINPACK benchmark.  We obtained 51% of the
  54969. theoretical peak for single-cell execution, and 28-34% for multiple-cell
  54970. execution.  A 16-cell configuration with NCA can sustain a performance
  54971. which is comparable to a 128-cell configuration without NCA for a 1000 x
  54972. 1000 matrix.
  54973. -------------------------------------------------------------
  54974.  
  54975. Parallel Processing of Logic Functions Based on Binary Decision Diagrams
  54976. Shinji Kimura et al.
  54977. Graduate School of Information Science
  54978. Nara Institute of Science and Technology
  54979. 8916-5 Takayama
  54980. Ikoma, Nara 630-01 Japan
  54981.  
  54982. The paper describes parallel algorithms for the binary decision diagram
  54983. manipulation on a distributed memory multi-processor system Fujitsu
  54984. AP1000.  A binary decision diagram is a directed acyclic graph
  54985. representing a logic function.  We have proposed a Shannon expansion
  54986. method, a modified Shannon expansion method and an output separation
  54987. method for load averaging.  We have obtained 120 times speed-up for some
  54988. good examples using 512 processors, and 10-27 times speed-up for well
  54989. used benchmark data using 64 processors.  We also show the experimental
  54990. results on the emulation of the global shared main memory on AP1000.
  54991. That gives us 16 giga byte main memory with about 10 times speed-down.
  54992. -------------------------------------------------------------
  54993.  
  54994. Neural Network-Based Direct FEM on a Massively Parallel Computer AP1000
  54995. Genki Yagawa et al.
  54996. Faculty of Engineering
  54997. University of Tokyo 
  54998.  
  54999. This paper describes a new finite element method suitable for parallel
  55000. computing that is based on interconnected neural networks (NNs).  The
  55001. method consists of three phases:  (i) generating a network, i.e. a
  55002. finite element mesh, over an analysis domain, (ii) replacing the
  55003. functional of FEM with the network energy of interconnected NNs and
  55004. (iii) minimizing the network energy by changing the states of arbitrary
  55005. units on the basis of a transition rule.  In order to demonstrate the
  55006. fundamental performance of the methods, a thermal conduction problem is
  55007. analyzed using 16/64 processors of the massive parallel computer AP1000.
  55008. The result shows that the solution obtained agrees well with the
  55009. solution obtained by the conventional FEM.
  55010. -------------------------------------------------------------
  55011.  
  55012. Error Analysis of Parallel Computation:  Direct Solution Method of
  55013. Linear Equations
  55014. Syunsuke Baba et al.
  55015. Department of communications and Systems Engineering
  55016. University of Electro-Communications
  55017.  
  55018. This manuscript shows the error analysis of parallel algorithm.  We
  55019. developed the sparse linear problem solver, named Multi-Step Diakoptics
  55020. (MSD).   The solver is applicable to the finite difference models of
  55021. partial differential equations.  One and two dimensional models were
  55022. solved by MSD and the error analyses were done.  From the results, we
  55023. obtained the slight dependency of error on processor numbers in case of
  55024. ill-conditioned problems.
  55025. -------------------------------------------------------------
  55026.  
  55027. The Effect of Parallel Processing and Hill-Climbing Methods on Genetic
  55028. Algorithms
  55029. Hajime Ohi et al.
  55030. Fujitsu Research Institute for Advanced Information System & Economics
  55031.  
  55032. (no abstract)
  55033. -------------------------------------------------------------
  55034.  
  55035. Dynamic balancing of computational loads of multiprocessor system in the
  55036. DSMC simulation
  55037. Mitsuo Yokokawa et al.
  55038. Japan Atomic Energy Research Institute
  55039. Tokai-mura, Naka-gun
  55040. Ibaraki 319-11
  55041.  
  55042. The Direct Simulation Monte Carlo (DSMC) method is a numerical technique
  55043. for simulating wide varieties of flows in the rarefied as well as in the
  55044. continuum region.  A large number of simulated particles are used in the
  55045. simulation of continuum flows and, therefore, a large amount of
  55046. computational time is required.  The parallel computation of the DSMC
  55047. method is one of the solutions to reduce the computational time.
  55048.  
  55049. In the parallel implementation of the DSMC method, the computational
  55050. region is divided into subregions and the computation in each subregion
  55051. is assigned to each processor.  In this paper, an attempt of taking the
  55052. dynamic balance of the computational loads of each processor is
  55053. presented.
  55054. -------------------------------------------------------------
  55055.  
  55056. Monte Carlo Shielding Calculation without Variance Reduction Techniques
  55057. Makoto Takano et al.
  55058. Fuel Cycle Safety Div.
  55059. Japan Atomic Every Research Institute
  55060.  
  55061. In order to analyze radiation shielding problems, Monte Carlo method
  55062. with continuous energy cross sections has the potential to supply the
  55063. most accurate result.  However, the conventional computers do not have
  55064. enough power to solve the problem without various variance reduction
  55065. techniques that needs user's experience.  In the paper, the trial has
  55066. been made to solve the shielding problems by pure analog Monte Carlo
  55067. with the help of AP1000.
  55068. -------------------------------------------------------------
  55069.  
  55070. Parallel computing of Si-slab energy-band
  55071. Itsuo Umebu
  55072. Research Center for Computational Science
  55073. Fujitsu Limited
  55074.  
  55075. With interests for high-speed ab-initio calculation of electronic states
  55076. of semiconductors by parallel processing and for quantum- size effects
  55077. in low dimensional Si crystal, we have calculated the energy bands of Si
  55078. thin slabs by the pseudopotential method using parallel processor
  55079. Fujitsu AP1000.  The performance of parallel processing was better for
  55080. thicker slabs:  speed-up ratio of 35 was attained for 16-layer slabs at
  55081. the ratio of the number of processor elements 432/6 (=72) but 15 at the
  55082. same condition for 6-layer slabs.  A saturation tendency in the
  55083. performance with number of processor elements was observed and its cause
  55084. was attributed not to the communication time between processor elements
  55085. but to the unparallelized part of the computer program.  The time for
  55086. communication between processor elements was estimated from the quantity
  55087. of transmission data and the number of calls for communication
  55088. subroutines and it showed good agreement with measured time.
  55089. -------------------------------------------------------------
  55090.  
  55091. Direct simulation of Homogeneous Turbulence by Parallel Computation
  55092. Kazuharu Ikai et al.
  55093. Science University of Tokyo
  55094.  
  55095. The parallel computation is attempted for the DNS (Direct Numerical
  55096. Simulation) of turbulence with use of the spectral method.  The
  55097. homogeneous isotropic turbulence is calculated using up to 1024
  55098. processors with the efficiency of over 80%.  A special attention is
  55099. required to transferring the data among processors for the efficient
  55100. parallel fast Fourier transform.
  55101. -------------------------------------------------------------
  55102.  
  55103. The Implementation and Evaluation of Large Scale Neural Network
  55104. "CombNET-II" on AP1000
  55105. Shinji Kuno et al.
  55106. Dept. of Electrical and Computer Eng.
  55107. Nagoya Institute of Technology
  55108. Gokiso-cho, Showa-ku
  55109. Nagoya 466 Japan
  55110.  
  55111. CombNET-II is a large scale neural network model which has comb
  55112. structure.  This network has excellent performance for Kanji character
  55113. recognition or voice recognition.  However this network costs large
  55114. computation and lots of memories for learning.  It takes long times for
  55115. learning when using a conventional engineering workstation.  We
  55116. implemented CombNET-II on AP1000 as parallel as possible and got high
  55117. performances.  The learning speed on AP1000 is about 4 times as fast as
  55118. SPARC Station-10.
  55119. -------------------------------------------------------------
  55120.  
  55121. Toward Parallel Simulation of Ecology System
  55122. Tomomi Takashina et al.
  55123. Department of Communications and Systems Engineering
  55124. University of Electro-Communications
  55125.  
  55126. This manuscript describes the analysis of fitting the result of parallel
  55127. simulation of ecology system to the Lotka-Volterra model.  The simulator
  55128. was developed on CAP-C3^1 at our laboratory.  Rules of local
  55129. interactions were modeled in order to demonstrate the global phenomenon
  55130. of predator-prey interactions.  Because of the restriction of cell
  55131. numbers, each cell occupies one of the 64 sub-areas and solves the
  55132. problem sequentially.  We are now on the way to developing complete
  55133. parallel simulation of ecology system on AP1000.
  55134. -------------------------------------------------------------
  55135.  
  55136. Parallel Speculative Computation of Simulated Annealing on the AP1000
  55137. Multiprocessor
  55138. Andrew Sohn
  55139. Dept. of Computer and Information Science
  55140. New Jersey Institute of Technology
  55141. Newark, NJ 07102-1982
  55142.  
  55143. Simulated annealing is known to be highly sequential due to loop-
  55144. carried dependencies.  While the conventional speculative computation
  55145. with a binary tree has been found effective for parallel simulated
  55146. annealing, its performance is limited to (log n)-fold speedup on n
  55147. processors due to parallel execution of log n iterations.  This report
  55148. presents a new approach to parallel simulated annealing, called
  55149. generalized speculative computation (GSC).  We use an n-array
  55150. speculative tree and loop indices to execute n iterations in parallel on
  55151. n processors while maintaining the same decision sequence as sequential
  55152. simulated annealing.  To verify the performance of GSC, we implement 100
  55153. to 500-city Traveling Salesman Problems on the AP1000 massively parallel
  55154. multiprocessor.  Actual execution results demonstrate that the new GSC
  55155. approach can indeed be an effective method for parallel simulated
  55156. annealing.  We obtain over 20-fold speedup for the initial temperature
  55157. of 0.1 and 11-fold speedup for the initial temperature of 10, all on 100
  55158. processors.
  55159. -------------------------------------------------------------
  55160.  
  55161. A Parallel Genetic Algorithm Retaining Sequential Behaviors on
  55162. Distributed-Memory Multiprocessors
  55163. Jongho Nang
  55164. IIAS-SIS
  55165. Fujitsu Laboratories Ltd.
  55166. 1-9-3 Nakase
  55167. Mihama-ku, Chiba-shi 261
  55168.  
  55169. This paper proposes a simple and efficient parallelizing scheme of the
  55170. genetic algorithm on distributed-memory multiprocessor that allows to
  55171. maintain the execution behaviors of sequential genetic algorithm.  In
  55172. this parallelizing scheme, the global population is evenly partitioned
  55173. into several subpopulations each of which is assigned to the processor
  55174. to be evolved in parallel.  An interprocessor communication pattern,
  55175. called AAB (All-To-All Broadcasting), is used at each generation in
  55176. order to exchange the information on all individuals evolved in all
  55177. other processors.  It allows the processor to reproduce the individuals
  55178. in a global sense, in other words, the sequential execution behaviors
  55179. can be maintained in the parallelized genetic algorithm.  This paper
  55180. shows that the genetic algorithms employing widely used selection
  55181. schemes such as proportionate selection, ranking selection, and
  55182. tournament selection can be efficiently parallelized on
  55183. distributed-memory multiprocessor using the proposed parallelizing
  55184. scheme.  Some experimental speedups on AP1000 are also presented to show
  55185. the usefulness of the proposed parallelizing scheme.
  55186.  
  55187. --------------------------------END OF REPORT-----------------------
  55188.  
  55189.  
  55190.  
  55191. Approved: parallel@hubcap.clemson.edu
  55192. Follow-up: comp.parallel
  55193. Path: bounce-back
  55194. Newsgroups: comp.parallel,comp.sys.super,comp.arch
  55195. From: schaller@lrz-muenchen.de (Christian Schaller)
  55196. Subject: Parallelization guide for KSR1
  55197. Keywords: KSR1
  55198. Reply-To: schaller@lrz-muenchen.de
  55199. Organization: Leibniz-Rechenzentrum, Muenchen (Germany)
  55200.  
  55201. Parallelization Guide for the KSR1
  55202. ----------------------------------
  55203.  
  55204. A first version of a Parallelization Guide for the KSR1 is available. 
  55205. It is adressed to the users of our computing centre. That's why it's 
  55206. written in german.  The title is
  55207.  
  55208. "Optimierung und Parallelisierung auf dem Parallelrechner SNI-KSR1"
  55209.  
  55210. It's got a lot of examples, so it may even be usefull for those who 
  55211. 'speak' Fortran but don't understand german.
  55212.  
  55213. Connect to ftp.lrz-muenchen.de, change directory to
  55214.  
  55215.      pub/comp/parallel/umdruck
  55216.  
  55217. and get par_guide.ps. Your ideas and comments are welcome
  55218.  
  55219.  
  55220. --
  55221. Christian Schaller                    email:   schaller@lrz-muenchen.de
  55222. Leibniz-Rechenzentrum                 phone:   +49-89-2105-8771 
  55223. Barer Str. 21                         fax:     +49-89-2809460
  55224. 80333 Munich                         
  55225. Approved: parallel@hubcap.clemson.edu
  55226. Follow-up: comp.parallel
  55227. Path: bounce-back
  55228. Newsgroups: comp.parallel
  55229. From: Yann Bongiovanni <ybo@muc.de>
  55230. Subject: Help to connect SyDOS PUMA 88 with Parallel Adapter to SCSI Port
  55231. Date:     Wed, 29 Dec 1993 19:44:51 +0100
  55232. Organization: It's just me.
  55233. Nntp-Posting-Host: ybo.muc.de
  55234. X-Useragent: Version 1.1.3
  55235. X-Xxdate: Wed, 29 Dec 93 19:44:45 GMT
  55236.  
  55237. I currently use a SyDOS PUMA 88 external drive connected to the parallel port
  55238. of my MS-DOS notebook computer. Since I have bought a Macintosh I'd like to
  55239. connect it to its SCSI port. Has anyone accomplished this? 
  55240.  
  55241. In the documentation, SyDOS says that the device normally has an SCSI
  55242. interface and contains a special adapter for parallel ports. In fact, the
  55243. connection cable is interrupted by a small black box containing an
  55244. SCSI-to-Parallel-Adapter. The pity is that everything is soldered and the only
  55245. plug the device has is the one which goes into the parallel port of the
  55246. computer.
  55247.  
  55248. The only thing I could do is probably to build connectors, so that if I want
  55249. to connect the device to my Mac, I can bypass the SCSI-to-Parallel-Adapter...
  55250. but how? I have no idea on how to make the connections.
  55251.  
  55252. It would be great if anyone could help me out in this (SyDOS, are you
  55253. listening?). 
  55254.  
  55255. Thank you in advance.
  55256.  
  55257.  
  55258. Yann Bongiovanni <ybo@muc.de>
  55259.  
  55260. Approved: parallel@hubcap.clemson.edu
  55261. Follow-up: comp.parallel
  55262. Path: bounce-back
  55263. From: ced@indy1.dl.ac.uk (C.E.Dean)
  55264. Newsgroups: comp.parallel,comp.parallel.pvm
  55265. Subject: Re: What is the equivalent of csend()/intel to nwrite()/nCUBE
  55266. Date: 30 Dec 1993 10:23:36 GMT
  55267. Organization: SERC Daresbury Laboratory
  55268. Sender: ced@indy1 (C.E.Dean)
  55269. References: <1993Dec29.181637.28333@hubcap.clemson.edu>
  55270. Nntp-Posting-Host: indy1.dl.ac.uk
  55271.  
  55272. Hello,
  55273.  
  55274.      I have never used nCUBE, but I can tell you what the parameters to the
  55275. Intel calls mean.
  55276.  
  55277. csend : Blocking subroutine to send a message to another node or nodes.
  55278.  
  55279.     call csend(type,buf,len,node,pid)
  55280.  
  55281.      type: Integer -- Identifies the type of message being sent. Used in
  55282.                       "opposite" crecv to match messages.
  55283.      buf:  Integer array -- Refers to the buffer that contains the message
  55284.                             to be sent. Can be any legal data type.
  55285.      len: Positive Integer -- Specifies number of bytes to send.
  55286.  
  55287.      node: Integer -- Destination node for message (node = -1 for broadcast)
  55288.  
  55289.      pid: Integer -- Specifies the id of the process that is to receive the
  55290.                      message. Present in call but not used on iPSC/860, as
  55291.                      each node only supports one process at a time.
  55292.  
  55293. irecv: Non-blocking receive.
  55294.  
  55295.       msid = irecv(typesel,buf,len)
  55296.  
  55297.         typesel: Integer -- Specifies the type(s) of message(s) to be received.
  55298.                             If non-negative, specific message type will be
  55299.                             recognised. If -1, first message to arrive will
  55300.                             be recognised.
  55301.  
  55302.         buf: Integer array -- Refers to the buffer where the received message
  55303.                               will be stored.
  55304.  
  55305.         len: Integer -- Specifies size (in bytes) of message buffer.
  55306.  
  55307. msgwait:
  55308.  
  55309.        call msgwait(msid)
  55310.  
  55311.  Blocking call. The non-blocking irecv assigned an id (msid in this eg) to
  55312.  the receive request. Use msgwait to block execution until the receive has
  55313.  been completed.
  55314.  
  55315.  
  55316.  Source of this info: Itel Programmer's Reference Manual
  55317.  
  55318.  Hope this helps,
  55319.  
  55320.  Chris Dean, S.E.R.C. Daresbury Laboratory, Warrington, UK
  55321.  
  55322. Approved: parallel@hubcap.clemson.edu
  55323. Follow-up: comp.parallel
  55324. Path: bounce-back
  55325. Newsgroups: comp.parallel
  55326. From: fineberg@netcom.com (Samuel A. Fineberg)
  55327. Subject: Re: What is the equelent of csend()/intel to nwrite()/nCUBE
  55328. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  55329. References: <1993Dec29.181637.28333@hubcap.clemson.edu>
  55330.  
  55331. Venkata Chaganti (vchagant@uahcs2.cs.uah.edu) wrote:
  55332. : Hi INTEL/nCUBE GURUS
  55333.  
  55334.  
  55335. : I was given a code written for intel machine and asked to port to
  55336. : nCUBE. I don't have intel manuals. 
  55337. : Please, some one could help me how i can write the following commands
  55338. : in intel to nCUBE.
  55339.  
  55340. : msid = irecv(kxp,g,2*npr*kxp)
  55341. : if(...)
  55342. :         csend(1+kxp,f,2*npr*kxp,kb-1,0)
  55343. :  else
  55344. :         csend(1+kxp,f,2*npr*kxp,kb+1,0)
  55345. :  endif
  55346. :  call msgwait(msid)
  55347.  
  55348. : Actually i would like to know the what each parameter means in 
  55349. : csend(),irecv(),msgwait()
  55350.  
  55351. csend is a blocking send (though it returns after the user buffer has been
  55352. copied to a system buffer, not after the data has been received):
  55353.  
  55354. csend(int type, char *buf, int count, int node, int ptype)
  55355.  
  55356. type: a tag used for matching messages (i.e., a crecv will only pick up
  55357.       messages sent with the same type).
  55358.  
  55359. buf: a pointer to the data to be sent
  55360.  
  55361. count: number of bytes to be sent
  55362.  
  55363. node: who to send the data to, -1 means broadcast to everyone
  55364.  
  55365. ptype (for the Paragon, also called pid on the iPSC/860): another matching 
  55366.      value, ostensably for when a processor uses more than one thread.  I
  55367.      have not yet seen this used on the Paragon and the only legal value for
  55368.      this on the iPSC/860 is 0.  I always set this to 0.
  55369.  
  55370. irecv is a non-blocking receive, crecv is the blocking version and has the same
  55371. parameters but doesn't return anything:
  55372.  
  55373. int mid = irecv(int type, char *buf, count)
  55374.  
  55375. type: -1 will match any tag, anything else will mean that only messages sent
  55376.       with the same tag will be read.
  55377.  
  55378. count: the number of bytes to read
  55379.  
  55380. mid: a message id specifying this particular irecv
  55381.  
  55382. Note: the nCUBE allows you to specify the sender when receiving, Intel
  55383.       does not.  Also, an Intel receive does not give you information on who
  55384.       sent the data, for that you must call infonode() after the receive
  55385.       (infonode returns the node number of the sender of the last message 
  55386.       received).
  55387.  
  55388. msgwait(mid) simply blocks until the non-blocking send or receive that 
  55389. returned the message id, mid, completes.
  55390.  
  55391.  
  55392. Sam
  55393.  
  55394. Approved: parallel@hubcap.clemson.edu
  55395. Follow-up: comp.parallel
  55396. Path: bounce-back
  55397. Newsgroups: comp.parallel
  55398. From: jmc3@engr.engr.uark.edu (Dr. James M. Conrad)
  55399. Subject: Paper - Supercomputing '93
  55400. Reply-To: jmc3@engr.engr.uark.edu
  55401. Organization: University of Arkansas College of Engineering
  55402.  
  55403. I am looking for the following paper from Supercomputing '93.  Does anyone
  55404. know how I can reach the authors and/or get a copy (ftp site?)?
  55405.  
  55406. "A Distributed Shared Memory Multiprocessor ASURA-memory and Cache
  55407. Architectures," by S. Mori, H. Saito, M. Goshima, Kyoto U., Japan,
  55408. M. Yanagihara, T. Tanaka, D. Fraser, K. Joe, H. Nitta, Kubota Corporation.
  55409. ------------------------------------------------------------------------
  55410. James M. Conrad, Assistant Professor           jmc3@jconrad.engr.uark.edu
  55411. Computer Systems Engineering Department           jmc3@engr.engr.uark.edu
  55412. University of Arkansas, 313 Engineering Hall, Fayetteville, AR 72701-1201
  55413. Dept: (501) 575-6036       Office: (501) 575-6039     FAX: (501) 575-5339
  55414.  
  55415.  
  55416.  
  55417.  
  55418. Approved: parallel@hubcap.clemson.edu
  55419. Follow-up: comp.parallel
  55420. Path: bounce-back
  55421. Newsgroups: comp.parallel
  55422. From: meunierp@enst.enst.fr (Philippe Meunier)
  55423. Subject: Re: asynchronous IO (message passing)
  55424. Organization: Telecom Paris (ENST), France
  55425. References: <1993Dec15.144124.27510@hubcap.clemson.edu> <1993Dec20.141813.9931@hubcap.clemson.edu>
  55426.  
  55427. In article <1993Dec20.141813.9931@hubcap.clemson.edu>, jim@meiko.co.uk (James Cownie) writes:
  55428. |> There are many reasons not to support the interrupt style 
  55429. |> including :-
  55430. |> 
  55431. |> 1) It's a horrible way to write code. It's like writing big
  55432. |>     chunks of stuff in signal handlers...
  55433.  
  55434. Well, not always. About 5 monthes ago i have seen a really nice program
  55435. that was using asynchronous message passing (hrecv() on an 
  55436. intelPSC/860 machine).
  55437. There was a master and several slaves processes. The slaves were
  55438. asking the master for some work to do, doing the work and then asking
  55439. the master again for some work...
  55440. For the sake of efficiency, the master was doing some work too. When
  55441. a slave asked for some work, the master's work was interupted, some
  55442. work was sent to the slave by the signal handler and then the master
  55443. just continued what he was doing at the time he was interupted.
  55444.  
  55445. So the slaves weren't waiting too much for some work to do, and
  55446. the master was doing some work himself, which was increasing the
  55447. overall speed.
  55448.  
  55449. |> 2) It's hard to implement (and in particular to get right !)
  55450. |> 3) It's hard to specify (e.g. Can you communicate from within
  55451. |>    the message handler ? Can you probe for other messages here ?
  55452. |>    etc...) 
  55453. |> 4) all the other things I can't remember at the moment !
  55454.  
  55455. Yup.
  55456. For those who are interested, here is a posting i have found some
  55457. monthes ago:
  55458.  
  55459. ----------------------------------------------------
  55460. Article: 470 of comp.parallel.pvm
  55461. From: mcavende@ringer.cs.utsa.edu (Mark Cavender)
  55462. Subject: Re:  Asynchronous Receive
  55463. Organization: University of Texas at San Antonio
  55464. Date: Thu, 5 Aug 1993 03:14:17 GMT
  55465.  
  55466. [...]
  55467.         I have been working on a version of PVM 2.4.2 that has asynchronous
  55468. receives and sends, and hrecv for my thesis.  It also has hsnd.  It seems to 
  55469. work OK but hasn't been tested much.  It currently only runs on Sun systems 
  55470. running SunOS 4.1.2.  I am trying to port it to Solaris 2.1 but it has been a 
  55471. bear.
  55472.  
  55473.  
  55474. Mark Cavender
  55475. University of Texas at San Antonio
  55476. -----------------------------------------------------
  55477.  
  55478. Hope this helps...
  55479.  
  55480. Philippe
  55481.  
  55482. Approved: parallel@hubcap.clemson.edu
  55483. Follow-up: comp.parallel
  55484. Path: bounce-back
  55485. From: gld@bonjour.cc.columbia.edu (Gary L Dare)
  55486. Newsgroups: comp.parallel,comp.sys.super
  55487. Subject: User Reports on the IBM PowerParallel?
  55488. Organization: The Bloomingdale Insane Asylum (now Columbia University)
  55489.  
  55490. Would anyone know of any user reports on the IBM PowerParallel
  55491. "super" that are available to the general computing community?
  55492. I know that Cornell's Theory Center has one, but they're all on
  55493. vacation right now ... I do have the grand Net FTP List, but if
  55494. someone can quickly point to a spot at Cornell rather than have
  55495. me traverse all over the place that'd be much appreciated ...
  55496.  
  55497. gld
  55498.  
  55499. PS: Please post your responses in case anyone else is interested.
  55500. Thanks in advance for any info!
  55501. --
  55502. ~~~~~~~~~~~~~~~~~~~~~~~~ Je me souviens ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  55503. Gary L. Dare
  55504. > gld@cunixd.cc.columbia.EDU         Support NAFTA
  55505. > gld@cunixc.BITNET             Eat Mexican  (El Teddy's ad)
  55506.  
  55507. Approved: parallel@hubcap.clemson.edu
  55508. Follow-up: comp.parallel
  55509. Path: bounce-back
  55510. Newsgroups: comp.parallel
  55511. From: dbader@eng.umd.edu (David Bader)
  55512. Subject: Re: a question on C*
  55513. Date: 31 Dec 1993 16:49:59 GMT
  55514. Organization: Project GLUE, University of Maryland, College Park
  55515. References: <1993Dec27.144642.25200@hubcap.clemson.edu>
  55516.  
  55517. In article <1993Dec27.144642.25200@hubcap.clemson.edu> mlevin@husc8.harvard.edu (Michael Levin) writes:
  55518. >    I have a couple of questions on C* (which I am using on a Sun front
  55519. >end to access a CM-2): (I haven't found any of this in the meager
  55520. >documentation I've been able to obtain)
  55521.  
  55522. If you have access to a CM-2, you will most certainly need the C*
  55523. programming manual to program in C*.  I don't have mine in front of me
  55524. currently, but to use math functions on parallel arrays, you will need
  55525. to include TMC's "pmath.h".  Check out this header file for the
  55526. versions  of "overloaded" math functions for parallel arrays.
  55527.  
  55528. -david
  55529.  
  55530. David A. Bader 
  55531. Electrical Engineering Department
  55532. A.V. Williams Building - Room 3142-A
  55533. University of Maryland
  55534. College Park, MD 20742
  55535. 301-405-6755   
  55536.  
  55537. Internet: dbader@eng.umd.edu
  55538.  
  55539.  
  55540. Approved: parallel@hubcap.clemson.edu
  55541. Follow-up: comp.parallel
  55542. Path: bounce-back
  55543. Newsgroups: comp.parallel,comp.sys.super
  55544. From: jet@nas.nasa.gov (J. Eric Townsend)
  55545. Subject: mailing list info on TMC CM-5, Intel iPSC/860, Intel Paragon
  55546. Sender: news@nas.nasa.gov (News Administrator)
  55547. Organization: NAS/NASA-Ames Research Center
  55548.  
  55549. J. Eric Townsend (jet@nas.nasa.gov)
  55550. last updated: 29 Nov 1993 (updated mailing addresses)
  55551.  
  55552. This file is posted to USENET automatically on the 1st and 15th of
  55553. each month.
  55554.  
  55555. It is mailed to the respective lists to remind users how to
  55556. unsubscribe and set options.
  55557.  
  55558. INTRODUCTION
  55559. ------------
  55560.  
  55561. Several mailing lists exist at NAS for the discussion of using and
  55562. administrating Thinking Machines CM-5  and Intel iPSC/860 parallel
  55563. supercomputers.
  55564.  
  55565. These mailing lists are open to all persons interested in the systems.
  55566.  
  55567. The lists are:
  55568.  
  55569. LIST-NAME               DESCRIPTION
  55570. cm5-managers    --  discussion of administrating the TMC CM-5
  55571. cm5-users       --       "     "   using the TMC CM-5
  55572. ipsc-managers      --       "     "  administrating the Intel iPSC/860
  55573. ipsc-users      --       "     "  using the Intel iPSC/860
  55574. paragon-managers   --       "     "  administrating the Intel Paragon
  55575. paragon-users   --       "     "  using the Intel Paragon
  55576.  
  55577. The ipsc-* lists at cornell are going away, the lists here will
  55578. replace them. (ISUG members will be receiving information on this in
  55579. the near future.)  The cm5-users list is intended to complement the
  55580. lbolt list at MSC.
  55581.  
  55582. SUBSCRIBING/UNSUBSCRIBING
  55583. -------------------------
  55584.  
  55585. All of the above lists are run with the listserv package.  In the
  55586. examples below, substitute the name of the list from the above table
  55587. for the text "LIST-NAME".
  55588.  
  55589. To subscribe to any of the lists, send email to
  55590. listserv@nas.nasa.gov with a *BODY* of
  55591.  
  55592. subscribe LIST-NAME your_full_name
  55593.  
  55594. Please note:
  55595.  - you are subscribed with the address that you sent the email from.
  55596.    You cannot subscribe an address other than your own.  This is
  55597.    considered a security feature, but I haven't gotten around to taking
  55598.    it out.
  55599.  - your subscription will be handled by software, so any other text
  55600.    you send will be ignored
  55601.  
  55602. Unsubscribing
  55603.  
  55604. It is important to understand that you can only unsubscribe from the
  55605. address you subscribed from.  If that is impossible, please contact
  55606. jet@nas.nasa.gov to be unsubscribed by hand.  ONLY DO THIS IF
  55607. FOLLOWING THE INSTRUCTIONS DOES NOT PRODUCE THE DESIRED RESULTS!  I
  55608. have better things to do than manually do things that can be
  55609. automated.
  55610.  
  55611. To unsubscribe from any of the mailing lists, send email to
  55612. listserv@nas.nasa.gov with a body of
  55613.  
  55614. unsubscribe LIST-NAME
  55615.  
  55616. OPTIONS
  55617. -------
  55618. If you wish to receive a list in digest form, send a message
  55619. to listserv@nas.nasa.gov with a body of
  55620.  
  55621. set LIST-NAME mail digest
  55622.  
  55623. OBTAINING ARCHIVES
  55624. ------------------
  55625.  
  55626. There are currently no publicly available archives.  As time goes on,
  55627. archives of the lists will be made available.  Watch this space.
  55628. -- 
  55629. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  55630. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  55631. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  55632. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  55633.  
  55634. Approved: parallel@hubcap.clemson.edu
  55635. Follow-up: comp.parallel
  55636. Path: bounce-back
  55637. Newsgroups: comp.parallel
  55638. Date: Sat, 1 Jan 1994 12:47:59 -0600
  55639. From: paprzycki_m@gusher.pb.utexas.edu
  55640. Subject: Parallel Programming Teaching 
  55641.  
  55642. Dear Netters,
  55643.  
  55644. I am collecting a bibliography of materials related to 
  55645.  
  55646. Parallel Programming Teaching.
  55647.  
  55648. Where parallel programming should be understood very broadly
  55649. and encompassing issues related to teaching of any subject
  55650. realed to parallel/distributed/high performance programming/computing.
  55651.  
  55652. If you have any pointers please send them to:
  55653.  
  55654. paprzycki_m@gusher.pb.utexas.edu
  55655.  
  55656. I will summarize the replies to the list.
  55657.  
  55658. THANK YOU and HAPPY NEW YEAR!!!!
  55659.  
  55660.  
  55661. Marcin Paprzycki
  55662.  
  55663. Approved: parallel@hubcap.clemson.edu
  55664. Follow-up: comp.parallel
  55665. Path: bounce-back
  55666. Newsgroups: comp.parallel
  55667. Date: Sat, 1 Jan 94 19:02:07 PST
  55668. From: Bob Means <rwmeans@hnc.com>
  55669. Subject: email address of Hecht-Nielson Neurocomputer
  55670.  
  55671.  
  55672. Andrei,
  55673.  
  55674. You can contact Hecht-Nielsen Neurocomputer, now HNC, at my email address
  55675. rwmeans@hnc.com
  55676.  
  55677. Best wishes for the new year.
  55678.  
  55679. Bob Means
  55680.  
  55681. Approved: parallel@hubcap.clemson.edu
  55682. Follow-up: comp.parallel
  55683. Path: bounce-back
  55684. From: jeg@theory.TC.Cornell.EDU (Jerry Gerner)
  55685. Newsgroups: comp.parallel,comp.sys.super
  55686. Subject: Re: User Reports on the IBM PowerParallel?
  55687. Organization: Cornell Theory Center
  55688. References: <1994Jan3.145257.9846@hubcap.clemson.edu>
  55689.  
  55690. In article <1994Jan3.145257.9846@hubcap.clemson.edu>, gld@bonjour.cc.columbia.edu (Gary L Dare) writes:
  55691. |> Would anyone know of any user reports on the IBM PowerParallel
  55692. |> "super" that are available to the general computing community?
  55693. |> I know that Cornell's Theory Center has one, but they're all on
  55694. |> vacation right now ... I do have the grand Net FTP List, but if
  55695. |> someone can quickly point to a spot at Cornell rather than have
  55696. |> me traverse all over the place that'd be much appreciated ...
  55697.  
  55698. Some of us are back!  Nothing publicly available at this time.  We have
  55699. the usual internal reports by staff, "friendly users", etc.  As soon as
  55700. this, and/or other, material is ready for prime time we'll post something.
  55701. Thanks for your interest.
  55702.  
  55703. As MarkW mentioned, please feel free to browse around our gopher
  55704. server.  At the moment very little in the way of "user reports" is
  55705. available,...  in fact nothing at all.  We have the usual internal
  55706. documents, but nothing that's ready for "prime time".  I'll post a 
  55707. note to the usual newsgroups when the first publicly-available user
  55708. reports, etc. are ready, what they are, where they are, etc.
  55709.  
  55710. The Theory Center doesn't have anything currently for "prime-time"
  55711. consumption, though you're welcome to browse though our gopher server
  55712. as MarkW has suggested.  Once we have some useful information from
  55713. both staff and users on our experiences with our SP1 (64 nodes at the
  55714. moment plus the hi-speed switch) I'll post a note with the "what, where,
  55715. etc."  For the moment however, reports from staff and "friendly users"
  55716. are being distributed internally-only, and to the vendor, and to the 
  55717. NSF and other interested parties, etc.  Watch this space for more news.
  55718. Approved: parallel@hubcap.clemson.edu
  55719. Follow-up: comp.parallel
  55720. Path: bounce-back
  55721. Newsgroups: comp.parallel
  55722. From: yedwest@utirc.utoronto.ca (Dr. Edmund West)
  55723. Subject: for comp.parallel
  55724. Date: Mon, 3 Jan 1994 12:16:17 -0500 (EST)
  55725.  
  55726.                     Preliminary Information about
  55727.  
  55728.                                SS '94
  55729.                      Supercomputing Symposium '94
  55730.  
  55731.                Canada's Eighth Annual High Performance
  55732.                  Computing Conference and Exhibition
  55733.  
  55734.                            June 6-8, 1994
  55735.  
  55736.             Sponsored by: Supercomputing Canada (Super*Can)
  55737.                    Hosted by: University of Toronto
  55738.  
  55739. * Conference Plans:
  55740.  
  55741.     The symposium is concerned with all aspects of high performance
  55742.   computing. World class invited speakers and informative technical
  55743.   sessions will expose attendees to the latest developments in this
  55744.   field. There will also be an exhibition of vendor products.
  55745.   Presentations will be made that describe the hardware, software,
  55746.   programming tools and techniques, applications, networks and
  55747.   experiences related to high performance computing.
  55748.     Topics will include, but are not limited to:
  55749.   o vector computing technology
  55750.   o parallel computing technology
  55751.   o workstation clusters
  55752.   o parallel programming techniques
  55753.   o distributed computing
  55754.   o languages for high performance computing
  55755.   o experiences with high performance computers
  55756.   o applications of high performance computing technology to solve
  55757.     problems in government, academia and industry
  55758.   o networking and communications
  55759.   o scientific data visualization
  55760.   o compiler and operating system issues
  55761.  
  55762. * Deadlines:
  55763.  
  55764.   Call for Papers distributed:           January 5, 1994
  55765.   Registration materials distributed:    January 21, 1994
  55766.   Abstract submissions due:              February 14, 1994
  55767.   Notification of acceptance:            March 14, 1994
  55768.   Camera-ready papers due:               May 6, 1994
  55769.   Early registration:                    May 6, 1994
  55770.  
  55771. * Hotel:
  55772.  
  55773.   Holiday Inn on King
  55774.   370 King Street West
  55775.   Toronto, Ontario M5V 1J9 Canada
  55776.   [Tel: 416-599-4000; Fax: 416-599-7394]
  55777.  
  55778.     A limited number of rooms are being held for SS'94 attendees at a
  55779.   special rate of C$99.00 (single or double). Please contact the hotel
  55780.   directly to reserve your room. Mention "Supercomputing Symposium '94"
  55781.   in order to obtain the conference rate. Rooms not reserved by May 5,
  55782.   1994 will be released.
  55783.  
  55784. * Conference Social Scene
  55785.   o  Ice-breaker Reception (Sunday evening, June 5, 1994)
  55786.   o  Conference Banquet (Monday evening, June 6, 1994)
  55787.   o  Special Entertainment
  55788.  
  55789. * Extracurricular Activities
  55790.   o  Toronto theater: "Miss Saigon", "Showboat", "Phantom of the Opera"
  55791.   o  Blue Jays Baseball
  55792.   o  The Nightlife of Toronto
  55793.  
  55794.        For more information contact the Conference Chairman:
  55795.                           Dr. Edmund West
  55796.                     4 Bancroft Avenue, Room 202
  55797.                        University of Toronto
  55798.                       Toronto, Ontario M5S 1A1
  55799.              416-978-4085  *  yedwest@utirc.utoronto.ca
  55800.           [ftp info at ftp.utirc.utoronto.ca in /pub/SS94]
  55801.  
  55802. ==========================================================================
  55803.  
  55804.   Some participants in Supercomputing Symposium '94 may also be interested
  55805. in the CFD 94 conference, being held in Toronto on the Thursday and Friday
  55806. (June 2 and 3) immediately preceeding SS '94.
  55807.  
  55808.  
  55809.                  CONFERENCE ANNOUNCEMENT: CFD 94
  55810.  
  55811.   CFD 94 is the annual meeting of the Computational Fluid  Dynamics Society
  55812. of Canada. The objectives of CFD 94 are to bring together researchers and
  55813. practitioners in computational fluid dynamics (CFD) and to promote this
  55814. methodology. CFD-94 addresses all aspects of CFD including, but not
  55815. restricted to, acoustics, aerodynamics, astrophysics, automotive
  55816. engineering, biomedicine, hypersonics, industrial engineering, new CFD
  55817. algorithms, process engineering, transport in porous media, and weather
  55818. prediction. 
  55819.  
  55820.   Individuals, companies, vendors and government research labs are invited
  55821. to submit scientific presentations.
  55822.  
  55823.   CFD-oriented companies and consultants are encouraged to participate in
  55824. CFD-94 with exhibits of hardware, software and applications.
  55825.  
  55826.   Abstract submission deadline:  14 January 1994
  55827.   Preregistration deadline:      30 April 1994
  55828.  
  55829. For further information, contact either:
  55830.  
  55831.         Prof. C. Ross Ethier
  55832.            email: ethier@me.utoronto.ca
  55833.            voice: (416) 978-6728
  55834.            fax:   (416) 978-7753
  55835.  
  55836.         Prof. James J. Gottlieb
  55837.            email: gottlieb@bach.utias.utoronto.ca
  55838.            voice: (416) 667-7740
  55839.            fax:   (416) 667-7799
  55840.  
  55841. Approved: parallel@hubcap.clemson.edu
  55842. Follow-up: comp.parallel
  55843. Path: bounce-back
  55844. Newsgroups: comp.parallel
  55845. From: Andreas.Ruecker@arbi.informatik.uni-oldenburg.de (Andreas Ruecker)
  55846. Subject: Questions about ORCA
  55847. Organization: University of Oldenburg, Germany
  55848.  
  55849. is there anyone who has experience with the parallel language ORCA
  55850. (it's a language for parallel programming of distributed systems)
  55851. from Henri E. Bal? I need this information for a paper.
  55852.  
  55853. Special questions are:
  55854. 1. Is their any criticism on this language-design?
  55855. 2. Are their other related languages?
  55856. 3. Evaluation of the language in real-world situations?
  55857. 4. Whats about the spreading and importance of ORCA?
  55858. 5. How object-oriented is ORCA?
  55859. 6. The pros and cons of ORCA?
  55860.  
  55861. All other information related to the topic of parallel languages in 
  55862. distributed systems will also be nice.
  55863.  
  55864. Thanx 
  55865.  
  55866. Andreas Ruecker
  55867.  
  55868. -----
  55869. e-mail: Andreas.Ruecker@arbi.informatik.uni-oldenburg.de
  55870. fax: +49 441 63450
  55871.  
  55872. Approved: parallel@hubcap.clemson.edu
  55873. Follow-up: comp.parallel
  55874. Path: bounce-back
  55875. Newsgroups: comp.parallel
  55876. From: cronk@shrimp.icase.edu (Cronk David)
  55877. Subject: Help with threads Package
  55878. Organization: ICASE/NASA Langley
  55879.  
  55880. I am currently trying to port an existing threads package to the Intel
  55881. Paragon machine.  I was wondering if anybody has done any thread work
  55882. on the Paragon.  I am in particular need of help with regards to
  55883. save and restore.  I seem to be loosing my local stack pointer when
  55884. I do a long jump.  When I return from a context switch I have lost
  55885. my return address for when I complete the current routine.  The current
  55886. program counter is restored fine, it's the address of the calling
  55887. routine that I seem to loose.
  55888.  
  55889. Any help would be greatly appreciated.
  55890.  
  55891. Dave Cronk.
  55892. cronk@icase.edu
  55893. ICASE
  55894. NASA Langly Research Center
  55895. (804) 864-8361
  55896.  
  55897.  
  55898.  
  55899. Approved: parallel@hubcap.clemson.edu
  55900. Follow-up: comp.parallel
  55901. Path: bounce-back
  55902. Newsgroups: comp.parallel
  55903. From: sinha-arani@CS.YALE.EDU (Arani Sinha)
  55904. Subject: Language vs. Library in a distributed environment
  55905. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  55906.  
  55907. In the survey paper "Programming Languages for Distributed Computing
  55908. Systems" by Bal, Steiner and Tanenbaum ( ACM Computing Surveys, Sept,'89),
  55909. the authors discuss the advantages of a language over a library as achoice 
  55910. of a distributed programming environment. 
  55911.  
  55912. They say:
  55913.  
  55914. 1. If a library is used, the constructs of a sequential language has to be 
  55915.    used for implementation. The constructs and data types of a sequential
  55916.    language are considered inadequate for distributed programming.
  55917.  
  55918. 2. They also claim that a parallel language offers improved readability,
  55919.    type checking etc.
  55920.  
  55921.  
  55922. I want to know what the netters think of these views. Do you think that 
  55923. a parallel language is better than a library for distributed programming? 
  55924.  
  55925. Arani
  55926.  
  55927.  
  55928. Approved: parallel@hubcap.clemson.edu
  55929. Follow-up: comp.parallel
  55930. Path: bounce-back
  55931. Newsgroups: comp.parallel
  55932. From: fisher@netcom.com (John Fisher)
  55933. Subject: Parallel C++ (pC++)
  55934. Organization: NETCOM On-line Communication Services (408 241-9760 guest)
  55935.  
  55936. Hi Everyone,
  55937.  
  55938. I am looking for any information I can find on Parallel C++ (pC++).
  55939. I know it is the work of Indiana University, but I would be interested
  55940. in any papers that might have been published or available via FTP.
  55941.  
  55942. Thanks,
  55943. John
  55944.  
  55945.  
  55946.  
  55947. Approved: parallel@hubcap.clemson.edu
  55948. Follow-up: comp.parallel
  55949. Path: bounce-back
  55950. Newsgroups: comp.parallel
  55951. From: sinha-arani@CS.YALE.EDU (Arani Sinha)
  55952. Subject: Comparison between Linda and PVM
  55953. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  55954.  
  55955. I am trying to compare Linda and PVM as an environment for writing parallel
  55956. programs. I want to implement CAD VLSI applications in a distributed
  55957. environment.
  55958.  
  55959. I will be obliged if interested netters let me know of the advantages/
  55960. disadvantages of each.
  55961.  
  55962. Thanks,
  55963.  
  55964. Arani
  55965.  
  55966.  
  55967. Approved: parallel@hubcap.clemson.edu
  55968. Follow-up: comp.parallel
  55969. Path: bounce-back
  55970. Newsgroups: comp.parallel
  55971. From: Zhe Li <li@cs.columbia.edu>
  55972. Subject: PVM vs. C-linda
  55973.  
  55974.  
  55975. Hi world:
  55976.  
  55977. I am in the process of choosing a parallel processing toolkit to perform a
  55978. data intensive computations (e.g., heavy inter-host communication) as part of
  55979. my PHD thesis work. I playe around with PVM but have not gained any
  55980. experience with C-linda yet. Could anyone share some hands-on experience
  55981. about the pros and cons of these two packages? Issues such as their
  55982. applicability, efficient handling of inter-host communication, ease of
  55983. programming etc. are particularly interesting to me. Maybe some linda guys
  55984. from Yale could give some pointers on this?
  55985.  
  55986. Many thanks! Please email to me and I will summarize if there is enough
  55987. interest.
  55988.  
  55989. /Jay Li
  55990.  
  55991. li@cs.columbia.edu, Dept. of Computer Science, Columbia Univ.
  55992.  
  55993. Approved: parallel@hubcap.clemson.edu
  55994. Follow-up: comp.parallel
  55995. Path: bounce-back
  55996. Newsgroups: comp.parallel
  55997. From: andreas@c3440.edvz.uni-linz.ac.at (Andreas Hausleitner)
  55998. Subject: example for vectorisation
  55999. Organization: Technical University Vienna/Austria
  56000.  
  56001. Does anyone know, from where I can get a well suited
  56002. program for vectorization on a vector supercomputer 
  56003. (like Cray, Convex ..), which achieves good speedup 
  56004. and can also be parallelized for such shared memory
  56005. multiprocessor machines. 
  56006.  
  56007. Available as source or in a paper.
  56008.  
  56009. Thanks
  56010. Andreas Hausleitner
  56011.  
  56012. _____________________________
  56013. Andreas Hausleitner
  56014. Unversity of LINZ / Austria
  56015. Department for Supercomputing
  56016. email: hausleitner@edvz.uni-linz.ac.at
  56017.  
  56018. Approved: parallel@hubcap.clemson.edu
  56019. Follow-up: comp.parallel
  56020. Path: bounce-back
  56021. Newsgroups: comp.parallel.pvm,comp.parallel,lrz.parallel
  56022. From: schaller@lrz-muenchen.de (Christian Schaller)
  56023. Subject: PVM on KSR computers
  56024. Reply-To: schaller@lrz-muenchen.de
  56025. Organization: Leibniz-Rechenzentrum, Muenchen (Germany)
  56026.  
  56027. We are using the Public Domain Version of PVM (3.2.4) on our
  56028. KSR for quite a while. We always had good experiences. Recently I
  56029. tried to install the ported Version of PVM 3.1, which makes use of
  56030. the Virtual Shared Memory  System. I was running in a lot of
  56031. problems. In the end I didn't release the version to the users
  56032. of our site. 
  56033.  
  56034. I'm writing this note to give my experiences to the public and,
  56035. maybe get some feedback from other sites running this version of
  56036. PVM. I know that this version is said to be 'not supported'.
  56037.  
  56038. - installing this version was rather complicated compared to 
  56039.   the Public Domain Version. I had to do some source code changes.
  56040.   Also the examples were just copied from the Public Domain Version.
  56041.   I had to insert the calls to 'ksrinit()' to allocate the 
  56042.   shared memory buffers.
  56043. - the second start of an application after starting the demon produced
  56044.   the message 'Increment MAX_SHARED_MEM and recompile'. I tried two
  56045.   work-arounds: (a) cancel the old demon and start a new one (o.k.)
  56046.   (b) change the size of MAX_SHARED_MEM and recompile the whole system.
  56047.   In the case of (b) the machine was just allocating my shared memory 
  56048.   buffer and doing nothing else. No way!
  56049. - So I always used the alternative (a). But even then the machine was not
  56050.   working as we were used to. Processes like 'ps' were not terminating
  56051.   and there was no way to kill them. We had to restart the machine.
  56052.  
  56053. This is some of my experiences with PVM on the KSR1. I hope this is
  56054. helpfull information for some of you. 
  56055.  
  56056. --
  56057. Christian Schaller                    email:   schaller@lrz-muenchen.de
  56058. Leibniz-Rechenzentrum                 phone:   +49-89-2105-8771 
  56059. Barer Str. 21                         fax:     +49-89-2809460
  56060. 80333 Munich                         
  56061.  
  56062.  
  56063.  
  56064. Approved: parallel@hubcap.clemson.edu
  56065. Follow-up: comp.parallel
  56066. Path: bounce-back
  56067. Newsgroups: comp.parallel
  56068. Newsgroups: ia.jobs,uiowa.jobs,comp.parallel
  56069. From: jbrown@umaxa.weeg.uiowa.edu (Judy Brown)
  56070. Subject: Senior Computing Consultant Position
  56071. Organization: University of Iowa, Iowa City, IA, USA
  56072.  
  56073. Senior Computing Consultant
  56074. Advanced Research Computing Services
  56075. Weeg Computing Center
  56076. The University of Iowa
  56077.  
  56078. The Advanced Research Computing Services group at Weeg Computing 
  56079. Center is seeking a Senior Computing Consultant whose primary 
  56080. responsibility is to provide technical consulting to researchers on the 
  56081. Encore Multimax, IBM 3090, and distributed workstations, and on high 
  56082. performance computing (HPC) platforms off campus. The consultant will 
  56083. serve as an HPC information resource, assist with supercomputer 
  56084. allocations, and lead distributed processing efforts. 
  56085.  
  56086. Requirements include a Master's degree in Computer Science or a related 
  56087. field, or an equivalent combination of education; experience with UNIX and 
  56088. multiple computing platforms; and good organizational and 
  56089. communications skills. Experience with Mac, MVS, vectorization, 
  56090. parallelization, C, FORTRAN, distributed processing, PVM, Linda, and 
  56091. visualization tools is desired. 
  56092.  
  56093. Send resumes to Judy Brown, Weeg Computing Center, 134A LC, The 
  56094. University of Iowa, Iowa City, IA 52242. Resume screening will begin 
  56095. January 10, 1994. Resumes in electronic form may be sent via electronic 
  56096. mail to judy-brown@uiowa.edu. The University of Iowa is an Affirmative 
  56097. Action Equal Opportunity Employer. Women and minorities are encouraged 
  56098. to apply.
  56099.  
  56100.  
  56101. Approved: parallel@hubcap.clemson.edu
  56102. Follow-up: comp.parallel
  56103. Path: bounce-back
  56104. Newsgroups: comp.parallel
  56105. From: DKGCampb@cen.ex.ac.uk
  56106. Subject: GRIDS report wanted
  56107. Organization: University of Exeter, UK.
  56108.  
  56109. I'm looking to get hold of the follwing document:
  56110.  
  56111. A. Reuter, U. Geuder, M. Hardtner, B. Worner & R. Zink
  56112. "GRIDS User's Guide", Report 4/93, University of Stuttgart, 1993.
  56113.  
  56114.  
  56115. If anyone can point me in the direction of an FTP site or send me a
  56116. copy I'd be most grateful.
  56117.  
  56118.  
  56119. -- 
  56120. Duncan Campbell                     Acknowledgement:  I'd like to thank me,
  56121. Department of Computer Science                        without whom none of this
  56122. University of Exeter,                                 would have been possible.
  56123. Prince of Wales Road,          
  56124. Exeter  EX4 4PT              Tel:  +44 392 264063  Telex:  42894 EXUNIV G
  56125. United Kingdom               Fax:  +44 392 264067  e-mail: dca@dcs.exeter.ac.uk
  56126.  
  56127.  
  56128. Approved: parallel@hubcap.clemson.edu
  56129. Follow-up: comp.parallel
  56130. Path: bounce-back
  56131. Newsgroups: comp.parallel
  56132. From: takis@poobah.wellesley.edu (Takis Metaxas)
  56133. Subject: Interactive CD-ROM Proceedings for Parallel Computing
  56134.  
  56135.  
  56136. ***************************************************************************
  56137. News
  56138.  
  56139. FOR IMMEDIATE RELEASE
  56140.  
  56141. Contact: TELOS, The Electronic Library of Science
  56142.          3600 Pruneridge Avenue, Suite 200
  56143.          Santa Clara, CA 95051
  56144.          Phone: (408) 249-9314
  56145.          Fax: (408) 249-2595
  56146.          Email: c.peterson@applelink.apple.com
  56147.  
  56148. TELOS Publishes Interactive CD-ROM Proceedings for Parallel Computing
  56149.  
  56150. Santa Clara, California, January 1, 1994 - TELOS (The Electronic Library of
  56151. Science) announces the release of an interactive CD-ROM entitled "Parallel
  56152. Computation: Practical Implementation of Algorithms and Machines" (ISBN
  56153. 0-387-14213-4).
  56154.  
  56155. This revolutionary CD-ROM utilizes multimedia software on a Macintosh platform
  56156. and has been devised to replace the traditional practice of publishing
  56157. proceedings on paper. The 1992 DAGS Parallel Computing Symposium proceedings
  56158. are brought to you in this exciting format through the enterprising efforts of
  56159. Peter Gloor (Union Bank of Switzerland and Dartmouth College), Fillia Makedon
  56160. (Professor of Computer Science at Dartmouth College) and James W. Matthews
  56161. (Dartmouth).
  56162.  
  56163. The purpose of Dartmouth's Institute for Advanced Graduate Studies (DAGS) is to
  56164. strengthen the interaction between the theoretical and practical communities by
  56165. acting both as a forum and as a working environment to stimulate new
  56166. applications of parallel computation. In 1992, the DAGS Symposium addressed
  56167. "Issues and Obstacles in the Practical Implementation of Parallel Algorithms
  56168. and the Use of Parallel Machines," with the focus on problems that arise in
  56169. parallel scientific computing.
  56170.  
  56171. This CD-ROM brings the invited speakers from that meeting to your desktop,
  56172. along with proprietary hypertext software that allows viewers to annotate the
  56173. papers. Eight invited speakers' presentations are displayed in video and sound,
  56174. with an adjacent window displaying the full-color overheads used by each
  56175. presenter with their talk. In addition to viewing the presentations on the CD,
  56176. viewers may stop the video at any time, call up the abstract of the original
  56177. paper, read it, and even print it. Highlighted segments of the talk and the
  56178. backgrounds of presenters may also be accessed.
  56179.  
  56180. The CD-ROM is packaged with a 16-page booklet that describes how to use the
  56181. disc, including how to maneuver through the talks and how to use the software
  56182. to annotate the papers. Also included on the CD is a HyperCard(r) presentation
  56183. that explains how the CD was put together, to give viewers interested in
  56184. capturing their next conference, workshop, or meeting, valuable insight into
  56185. what is involved in this procedure.
  56186.  
  56187. INVITED SPEAKERS
  56188. Programming Parallel Algorithms
  56189. Guy Blelloch, Carnegie-Mellon University
  56190.  
  56191. The Network Architecture of the Connection Machine CM-5
  56192. Charles Leiserson, MIT
  56193.  
  56194. >From Parallel Algorithms to Applications and Vice Versa: Real Life Stories
  56195. Andrew Ogielski, Bellcore
  56196.  
  56197. Sorting Circuits, Fault Tolerance, and Tournament Ranking
  56198. Tom Leighton, MIT
  56199.  
  56200. Parallelization of Sequential Code for Distributed-Memory Parallel Processors
  56201. Marco Annaratone, DEC Massively Parallel Systems Group
  56202.  
  56203. Internals of the Connection Machine Compiler
  56204. Gary Sabot, Thinking Machines
  56205.  
  56206. Architecture of the KSR-1 Computer System
  56207. James Rothnie, Kendall Square Research
  56208.  
  56209. The Organization of Parallel FFT's: The Real Data Case
  56210. Charles Van Loan, Cornell University
  56211.  
  56212. *****************************************************************************
  56213. TO ORDER: Call 1-800-777-4643 or return this form via mail to TELOS, The
  56214. Electronic Library of Science, a Springer-Verlag imprint, 3600 Pruneridge Ave.,
  56215. Ste. 200, Santa Clara, CA 95051 or email the information to
  56216. c.peterson@applelink.apple.com.
  56217.  
  56218. Editors:  Gloor/Makedon/Matthews
  56219. Title: Parallel Computation: Practical Implementation of Algorithms and
  56220. Machines  (Macintosh CD and booklet)
  56221. Price: $69.95
  56222. ISBN:  0-387-14213-4
  56223.  
  56224. Qty__________ @ $69.95 =   $ ______________
  56225.                        Tax*
  56226.                  Shipping**
  56227.                       Total$ ______________
  56228.  
  56229. *  CA, MA, NJ, NY, PA, TX, VA, and VT residents include applicable sales tax.
  56230. Canadian residents include 7% GST.
  56231. ** Add $2.50 for the first product, $1.00 for subsequent titles.
  56232.    Foreign airmail orders please include $10.00 per product.
  56233.  
  56234. Method of Payment:
  56235. o  Enclosed check or money order made payable to Springer-Verlag New York, Inc.
  56236. o  Credit Card   VISA, MasterCard, Discover, orAmerican Express
  56237.  
  56238. Card No ____________________________________________
  56239.  
  56240. Expiration Date ____________________________________
  56241.  
  56242. Signature __________________________________________
  56243.  
  56244.  
  56245.  
  56246.  
  56247.  
  56248.  
  56249. Approved: parallel@hubcap.clemson.edu
  56250. Follow-up: comp.parallel
  56251. Path: bounce-back
  56252. Newsgroups: comp.parallel
  56253. From: R.Kerr@newcastle.ac.uk (R. Kerr)
  56254. Subject: Re: Language vs. Library in a distributed environment
  56255. Organization: University of Newcastle upon Tyne, UK, NE1 7RU
  56256. References: <1994Jan4.142201.779@hubcap.clemson.edu>
  56257.  
  56258. sinha-arani@CS.YALE.EDU (Arani Sinha) writes:
  56259.  
  56260. >In the survey paper "Programming Languages for Distributed Computing
  56261. >Systems" by Bal, Steiner and Tanenbaum ( ACM Computing Surveys, Sept,'89),
  56262. >the authors discuss the advantages of a language over a library as achoice 
  56263. >of a distributed programming environment. 
  56264.  
  56265. >They say:
  56266.  
  56267. >1. If a library is used, the constructs of a sequential language has to be 
  56268. >   used for implementation. The constructs and data types of a sequential
  56269. >   language are considered inadequate for distributed programming.
  56270.  
  56271. >2. They also claim that a parallel language offers improved readability,
  56272. >   type checking etc.
  56273.  
  56274.  
  56275. >I want to know what the netters think of these views. Do you think that 
  56276. >a parallel language is better than a library for distributed programming? 
  56277.  
  56278. I agree with the above observations and have made comments along those
  56279. lines in a direct reply to your earlier posting about PVM and Linda.
  56280.  
  56281. I would add to the specific comments above the fact that a programming
  56282. language generally represents a computational model which enables
  56283. programmers to express themselves in terms of the intuitive perception
  56284. they have of the computation. Given a good language, programmers who
  56285. think parallel are not severely constrained by having to express
  56286. themselves through an essentially serial medium.
  56287.  
  56288. A "parallel language" does not need to be a full-blown different
  56289. language. A conventional one, supplemented with a few well-chosen
  56290. constructs for expressing inherent parallelism, can go a long way.
  56291. Linda is a good example of that.
  56292.  
  56293. ------------------------------------------------------------------------
  56294.   Ron Kerr, Computing Service, Newcastle University, NE1 7RU, England.
  56295.             Tel. +44 91 222 8187       Fax. +44 91 222 8765 
  56296. ------------------------------------------------------------------------
  56297.  
  56298. Approved: parallel@hubcap.clemson.edu
  56299. Follow-up: comp.parallel
  56300. Path: bounce-back
  56301. Newsgroups: comp.parallel
  56302. Date: Tue, 4 Jan 1994 13:15:38 -0500
  56303. From: "Dennis Gannon" <gannon@cs.indiana.edu>
  56304. Subject: Re: Parallel C++ (pC++)
  56305. References: <1994Jan4.142223.873@hubcap.clemson.edu>
  56306.  
  56307. fisher@netcom.com (John Fisher) writes:
  56308.  
  56309. >I am looking for any information I can find on Parallel C++ (pC++).
  56310.  
  56311. there is an ftp archive at ftp.cica.indiana.edu or moose.cs.indiana.edu
  56312. in directory pub/sage.  There is also a WWW hypertext document that
  56313. can be reached via http://cica.indiana.edu:www/home-page.html or
  56314. more directly http://cica.indiana.edu:www/sage/home-page.html
  56315.  
  56316.  
  56317.  
  56318.  
  56319. Approved: parallel@hubcap.clemson.edu
  56320. Follow-up: comp.parallel
  56321. Path: bounce-back
  56322. Newsgroups: comp.parallel
  56323. From: ukola@kastor.ccsf.caltech.edu (Adam Kolawa)
  56324. Subject: Re: Parallel Programming Teaching
  56325. Date: 4 Jan 1994 19:12:13 GMT
  56326. Organization: ParaSoft Corporation
  56327. References: <1994Jan3.145316.10067@hubcap.clemson.edu>
  56328.  
  56329. In article <1994Jan3.145316.10067@hubcap.clemson.edu> paprzycki_m@gusher.pb.utexas.edu writes:
  56330.  
  56331. >I am collecting a bibliography of materials related to 
  56332. >Parallel Programming Teaching.
  56333. >
  56334.  
  56335. You can get info on our parallel programming classes from our
  56336. anonymous ftp server at ftp.parasoft.com (192.55.86.17) in the
  56337. /express/classes directory.
  56338.  
  56339.  
  56340.  
  56341.  
  56342. Approved: parallel@hubcap.clemson.edu
  56343. Follow-up: comp.parallel
  56344. Path: bounce-back
  56345. From: Umesh Krishnaswamy <krish@mercury.ICS.UCI.EDU>
  56346. Subject: SLALOM codes
  56347. Newsgroups: comp.benchmarks,comp.parallel
  56348.  
  56349. I am looking for Slalom code for Sun Sparcstation. The FTP site
  56350. (tantalus.al.iastate.edu) which usually has it does not seem to allow
  56351. anonymous logins. If anybody has it or knows where it is available,
  56352. could you please let me know.
  56353.  
  56354. Thanks.
  56355. Umesh.
  56356.  
  56357. Approved: parallel@hubcap.clemson.edu
  56358. Follow-up: comp.parallel
  56359. Path: bounce-back
  56360. Newsgroups: comp.parallel
  56361. From: mohr@fullsail.cs.uoregon.edu (Bernd W. Mohr)
  56362. Subject: Re: Parallel C++ (pC++)
  56363. Organization: University of Oregon Computer and Information Sciences Dept.
  56364. References: <1994Jan4.142223.873@hubcap.clemson.edu>
  56365.  
  56366. fisher@netcom.com (John Fisher) writes:
  56367.  
  56368. >I am looking for any information I can find on Parallel C++ (pC++).
  56369. >I know it is the work of Indiana University, but I would be interested
  56370. >in any papers that might have been published or available via FTP.
  56371.  
  56372. Technical documents (including published articles) and the programs for
  56373. pC++ and Sage++ are available via anonymous FTP from
  56374.  
  56375.   moose.cs.indiana.edu:/pub/sage (129.79.254.191)
  56376.   ftp.cica.indiana.edu:/pub/sage (129.79.26.102)
  56377.  
  56378. We maintain two mailing lists for pC++/Sage++.  For information
  56379. about the mailing lists, and how to join one, please send mail to
  56380. sage-request@cica.indiana.edu.  No Subject or body is required.
  56381.  
  56382. We are also running a WWW server. Try to connect to
  56383. "http://www.cica.indiana.edu/sage/home-page.html"
  56384.  
  56385. Hope this helps
  56386. Bernd
  56387.  
  56388. ---
  56389. Bernd Mohr
  56390. mohr@cs.uoregon.edu
  56391.                                          "You can't stop it. It's technology."
  56392.                                                           --- Dave Barry
  56393.  
  56394. Approved: parallel@hubcap.clemson.edu
  56395. Follow-up: comp.parallel
  56396. Path: bounce-back
  56397. Newsgroups: comp.parallel
  56398. From: jet@nas.nasa.gov (J. Eric Townsend)
  56399. Subject: Re: PVM vs. C-linda
  56400. Organization: NAS/NASA-Ames Research Center
  56401. References: <1994Jan4.142253.1056@hubcap.clemson.edu>
  56402.  
  56403. "li" == Zhe Li <li@cs.columbia.edu> writes:
  56404.  
  56405. li> communication) as part of my PHD thesis work. I playe around with
  56406. li> PVM but have not gained any experience with C-linda yet. Could
  56407.  
  56408. On what hardware?
  56409.  
  56410. --
  56411. J. Eric Townsend jet@nas.nasa.gov 415.604.4311| personal email goes to: 
  56412. CM-5 Administrator, Parallel Systems Support  |   jet@well.sf.ca.us
  56413. NASA Ames Numerical Aerodynamic Simulation    |---------------------------
  56414. PGP2.2 public key available upon request or finger jet@simeon.nas.nasa.gov
  56415.  
  56416. Approved: parallel@hubcap.clemson.edu
  56417. Follow-up: comp.parallel
  56418. Path: bounce-back
  56419. Newsgroups: comp.parallel
  56420. From: nlau@st6000.sct.edu (Neric Lau)
  56421. Subject: Human Brain
  56422. Date: 4 Jan 1994 21:29:38 -0500
  56423. Organization: Southern College of Technology, Atlanta
  56424.  
  56425. Is Human Brain a kind of parallel computer ?
  56426. Please send reply to nlau@st6000.sct.edu
  56427.  
  56428. Neric Lau
  56429.  
  56430. Approved: parallel@hubcap.clemson.edu
  56431. Path: bounce-back
  56432. From: b00cjl00%ceres@uunet.UU.NET (Jun-Lin Chen)
  56433. Newsgroups: comp.parallel,comp.sys.super
  56434. Subject: Re: User Reports on the IBM PowerParallel?
  56435. Followup-To: comp.parallel,comp.sys.super
  56436. Organization: Computer Center, National Chiao-Tung University, Taiwan
  56437. References: <1994Jan3.145257.9846@hubcap.clemson.edu>
  56438.  
  56439. Gary L Dare (gld@bonjour.cc.columbia.edu) wrote:
  56440. : Would anyone know of any user reports on the IBM PowerParallel
  56441. : "super" that are available to the general computing community?
  56442.  
  56443. : PS: Please post your responses in case anyone else is interested.
  56444.  
  56445.    I am interested the reports too.
  56446.    My e-mail: b00cjl00@nchc.edu.tw
  56447.    Thank you and Happy New Year !
  56448.  
  56449.  
  56450.    J.L. Chen
  56451.  
  56452.  
  56453. Approved: parallel@hubcap.clemson.edu
  56454. Follow-up: comp.parallel
  56455. Path: bounce-back
  56456. Newsgroups: comp.parallel
  56457. From: jjsc@inf.rl.ac.uk (John Cullen)
  56458. Subject: CFP: World Transputer Congress 1994 (WTC '94)
  56459. Organization: Rutherford Appleton Laboratory, Informatics Department, UK
  56460. Reply-To: sch@inf.rl.ac.uk (Dr. Susan Hilton)
  56461.  
  56462. WTC '94
  56463.  
  56464. CALL FOR PAPERS AND TUTORIAL PROPOSALS
  56465.  
  56466. Villa Erba, Cernobbio, Lake Como, Italy
  56467.  
  56468. 5 - 7 September, 1994
  56469.  
  56470. The Transputer Consortium (TTC) is pleased to announce that the WORLD
  56471. TRANSPUTER CONGRESS 1994 (WTC '94) will be held on 5 - 7 September
  56472. 1994 at the Villa Erba, Cernobbio, Lake Como, Italy . WTC '94 is the
  56473. leading international transputer conference and exhibition and is the
  56474. second in a series sponsored by and run under the overall management of
  56475. TTC. SGS-Thomson is also sponsoring WTC '94.
  56476.  
  56477. It is planned that each year WTC will be held in conjunction with a local
  56478. partner. For the first, highly successful, WTC '93, the local partner was
  56479. the German Transputer-Anwender-Treffen (TAT) conference. WTC '93, held at
  56480. the Eurogress Conference Centre in Aachen, Germany,  attracted 475
  56481. delegates from 32 countries worldwide. WTC '94 will be held in conjunction
  56482. with the Italian Transputer User Group (ItTUG), which is due to be formed
  56483. in early 1994. WTC '94 will incorporate the Inaugural Meeting of ItTUG.
  56484.  
  56485. WTC '94 will be the first major conference where significant applications of
  56486. the new T9000 transputer and its associated technologies (e.g. packet routers)
  56487. will be extensively reported.
  56488.  
  56489. OBJECTIVES
  56490.  
  56491. *       present `state-of-the-art' research on all aspects of parallel
  56492.         computing based upon communicating process architectures;
  56493.  
  56494. *       to demonstrate `state-of-the-art' products and applications from
  56495.         as wide a range of fields as possible;
  56496.  
  56497. *       to progress the establishment of international software and
  56498.         hardware standards for parallel computing systems;
  56499.  
  56500. *       to provide a forum for the free exchange of ideas, criticism and
  56501.         information from a world audience gathered from Industry,
  56502.         Commerce and Academia;
  56503.  
  56504. *       to promote an awareness of how transputer technologies may be
  56505.         applied and their advantages over other sequential and parallel
  56506.         processors;
  56507.  
  56508. *       to establish and encourage an understanding of the new software
  56509.         and hardware technologies enabled by the transputer, especially the
  56510.         new T9000 processor and C104 packet router from INMOS, the
  56511.         parallel DSP engines from Texas Instruments, and new products
  56512.         from Intel and other manufacturers.
  56513.  
  56514. The conference themes will include: education and training issues, formal
  56515. methods and security, performance and scalability, porting existing systems,
  56516. parallelisation paradigms, tools, programming languages, support
  56517. environments, standards and applications.
  56518.  
  56519. Applications include: embedded real-time control systems, workstations,
  56520. super-computing, consumer products, artificial intelligence, databases,
  56521. modelling, design, data gathering and the testing of scientific or mathematical
  56522. theories.
  56523.  
  56524. BACKGROUND
  56525.  
  56526. The World Transputer Congress (WTC) series was formed in 1992 from the
  56527. merger of the TRANSPUTING series of conferences, organised by the
  56528. worldwide occam and Transputer User Groups, and the TRANSPUTER
  56529. APPLICATIONS series of conferences, organised by the UK SERC/DTI
  56530. Transputer Initiative.
  56531.  
  56532. WTC '93 attracted a large and enthusiastic audience from the majority of
  56533. countries where transputer technology is accepted and/or parallel processing
  56534. is seen as the key to meeting future computing demands. There is clearly a
  56535. continuing, and growing, interest and commitment to this technology which
  56536. will rely on the WTC series to maintain the vital information flow. It is
  56537. reasonable to assume that it has already established itself as the leading
  56538. conference in this important area. The successes of its predecessors has been a
  56539. major factor in this. The continuing and vital support of TTC and the large
  56540. number of User Groups from around the world will ensure a continuing
  56541. success story for WTC.
  56542.  
  56543. FORMAT
  56544.  
  56545. The format adopted for WTC '93 will be continued at WTC '94. There will be a
  56546. mix of Plenary Sessions, with Keynote and Invited Speakers from around the
  56547. world, and Parallel Sessions, one of which will be organised by ItTUG. The
  56548. exact number of Parallel Streams will be dependent on the quality of papers
  56549. submitted against this Call for Papers.
  56550.  
  56551. LOCATION
  56552.  
  56553. WTC '94 will be held at the Villa Erba Conference and Exhibition Centre,
  56554. Cernobbio, Lake Como, Italy.  Cernobbio is 4KM from Como. The modern
  56555. complex offers unique conference and exhibition facilities providing a main
  56556. conference hall, meeting rooms and reception halls together with an
  56557. exhibition area which can be divided into a maximum of 280 stands. It is set
  56558. in the beautiful landscaped grounds of the Villa Erba on the shores of the
  56559. lake. The Mannerist style Villa, with its steps down to the lake, was built in
  56560. 1892 and is of both historic and artistic importance.
  56561.  
  56562. ACCOMMODATION
  56563.  
  56564. A range of hotel accommodation (2*, 3* and 4*) has been reserved for WTC '94
  56565. in Cernobbio and Como. The majority of these hotels are within easy walking
  56566. distance of the Villa Erba. However there is a limit to the total number of
  56567. rooms available in the town, so early booking is recommended. Details will
  56568. be sent, as soon as they are available, to all people who register their
  56569. interest
  56570. in WTC '94 by returning the reply slip at the end of this announcement.
  56571.  
  56572. GETTING THERE
  56573.  
  56574. Como has excellent air, rail and road access, being within easy reach of two
  56575. international airports, the main motorways and the trans-European rail
  56576. networks. The two International Airports are Milan (Linate) and Lugano
  56577. (Agno). Although many more international flights arrive at Milan, special
  56578. arrangements are  being negotiated with Crossair for flights to and from
  56579. Lugano. Crossair flights connect with international flights at many major
  56580. European airports. Travelling times by road to Como are 20 minutes from
  56581. Milan and 15 minutes from Lugano. Buses will be provided for delegates,
  56582. serving both airports. There is a frequent rail service from Milan to Como
  56583. and regular buses from Como to Cernobbio. Fuller details will be sent, as
  56584. soon as they are available, to people who register their interest in WTC
  56585. '94.
  56586.  
  56587. EXHIBITION
  56588.  
  56589. An associated exhibition attracting the world's leading suppliers of
  56590. transputer-based and other relevant hardware, software and application
  56591. products will be held at the Villa Erba Exhibition Centre. The WTC '93
  56592. Exhibition was viewed as a great success by both exhibitors and participants
  56593. alike and attracted a large number of visitors. Companies and other
  56594. organisations wishing to exhibit at the WORLD TRANSPUTER CONGRESS
  56595. 1994 should contact one of the Committee members listed at the end of this
  56596. announcement. Opportunities will also exist for posters and demonstrations
  56597. of academic achievements.
  56598.  
  56599. CALL FOR PAPERS
  56600.  
  56601. The conference programme will contain invited papers from established
  56602. international authorities together with submitted papers. The International
  56603. Programme Committee, presided over by Ing. A De Gloria (University of
  56604. Genoa), Dr S C Hilton (TTC), Dr M R Jane (TTC), Dr D Marini (University of
  56605. Milan) and Professor P H Welch (WoTUG), is now soliciting papers on all
  56606. areas described above. All papers will be fully refereed in their final form.
  56607. Only papers of high excellence will be accepted. The proceedings of this
  56608. conference will be published internationally by IOS Press and will be issued
  56609. to delegates as they register at the  meeting.
  56610.  
  56611. BEST PAPER AWARD
  56612.  
  56613. The award for the best paper (worth approximately #500) will be based on
  56614. both the submitted full paper for refereeing and the actual presentation at the
  56615. Conference. Members of the Programme Committee will be the judges and
  56616. their decision will be final. The winner will be announced and the
  56617. presentation made in the final Closing Session on Wednesday, 7 September.
  56618.  
  56619. PROGRAMME COMMITTEE MEMBERS
  56620.  
  56621. The Programme Committee consists of invited experts from Industry and
  56622. Academia, together with existing members from the joint organising user-
  56623. groups based in Australia, France, Germany, Hungary, India, Italy, Japan,
  56624. Latin America, New Zealand, North America, Scandinavia and the United
  56625. Kingdom.
  56626.  
  56627. The refereeing will be spread around the world to ensure that all points of
  56628. view and expertise are properly represented and to obtain the highest
  56629. standards of excellence.
  56630.  
  56631. INSTRUCTIONS TO AUTHORS
  56632.  
  56633. Four copies of submitted papers (not exceeding 16 pages, single-spaced, A4 or
  56634. US 'letter') must reach the Committee member on the contact list below who
  56635. is closest to you by 1 March 1994. Authors will be notified of acceptance
  56636. by 24 May 1994. Camera-ready copy must be delivered by 23 June 1994, to
  56637. ensure inclusion in the proceedings.
  56638.  
  56639. A submitted paper should be a draft version of the final camera-ready copy. It
  56640. should contain most of the information, qualitative and quantitative, that will
  56641. appear in the final paper - i.e. it should not be just an extended abstract.
  56642.  
  56643. CALL FOR TUTORIALS AND WORKSHOPS
  56644.  
  56645. Before the World Transputer Congress 1994, we shall be holding tutorials on
  56646. the fundamental principles underlying transputer technologies, the design
  56647. paradigms for exploiting them, and workshops that will focus directly on a
  56648. range of specialist themes (e.g. real-time issues, formal methods, AI, image
  56649. processing ..). The tutorials will be held on 3 - 4 September 1994 in the
  56650. Villa Erba itself.
  56651.  
  56652. We welcome suggestions from the community of particular themes that
  56653. should be chosen for these tutorials and workshops. In particular, we
  56654. welcome proposals from any group that wishes to run such a tutorial or
  56655. workshop. A submission should outline the aims and objectives of the
  56656. tutorial, give details of the proposed programme, anticipated numbers of
  56657. participants attending (minimum and maximum) and equipment (if any)
  56658. needed for support. Please submit your suggestions or proposals to one of the
  56659. Committee members listed below by 1 March 1994.
  56660.  
  56661. DELIVERY AND CONTACT POINTS
  56662.  
  56663. Dr Mike Jane, The Transputer Consortium, Informatics Department,
  56664. Rutherford Appleton Laboratory, Chilton, Didcot, Oxon OX11 0QX, UK
  56665. Phone: +44 235 445408; Fax: +44 235 445893; email: mrj@inf.rl.ac.uk
  56666.  
  56667. Dr Daniele Marini, Department of Computer Science, University of Milan, Via
  56668. Comelico,39, Milan 20135, ITALY.
  56669. Phone: +39 2 5500 6358; Fax: +39 2 5500 6334
  56670. email:marini@imiucca.csi.unimi.it
  56671.  
  56672. Mr David Fielding, Chair, NATUG, Cornell Information Technologies, 502
  56673. Olin Library, Cornell University, Ithaca NY 14853, USA
  56674. Phone: +1 607 255 9098; Fax: +1 607 255 9346
  56675. email: fielding@library.cornell.edu
  56676.  
  56677. Dr Kuninobu Tanno,
  56678. Department of Electrical and Information Engineering, Yamagata University,
  56679. Yonezawa, Yamagata 992, JAPAN
  56680. Phone: +81 238 22 5181; Fax: +81 238 26 2082
  56681. email: tanno@eie.yamagata-u.ac.jp
  56682.  
  56683. Mr John Hulskamp, Department of Computer Systems Engineering, RMIT, G.P.O.
  56684. Box 2476V, Melbourne, 3001 AUSTRALIA
  56685. Phone: +61 3 660 5310 ; Fax: +61 3 660 5340; email: jph@rmit.edu.au
  56686.  
  56687. Dr Rafael Lins, Chair, OUG-LA, Department de Informatica, UFPE - CCEN,
  56688. Cidade Universitaria, Recife - 50739 PE BRAZIL
  56689. Phone: +55 81 2718430; Fax: +55 81 2710359; email: rdl@di.ufpe.br
  56690.  
  56691. FOR FURTHER INFORMATION PLEASE CONTACT:
  56692.  
  56693. Dr Susan C Hilton
  56694. Building R1
  56695. Rutherford Appleton Laboratory
  56696. CHILTON,
  56697. DIDCOT,
  56698. OXON. OX11 0QX
  56699. UK
  56700.  
  56701. Phone: +44 235 446154
  56702. Fax: +44 235 445893
  56703. email sch@inf.rl.ac.uk
  56704.  
  56705.  
  56706. ---
  56707. _______________________________________________________________________________
  56708. JANET   : J.Cullen@uk.ac.rl.inf                      | John Cullen
  56709. INTERNET: J.Cullen%inf.rl.ac.uk@nsfnet-relay.ac.uk   | Comms Research & Support
  56710. UUCP    : {...|mcsun}|uknet|rlinf|J.Cullen           | Informatics Department
  56711. X.400   : /I=J/S=Cullen/OU=informatics/O=rutherford  | Rutherford Appleton Lab.
  56712.           /PRMD=UK.AC/ADMD= /C=GB/                   | Chilton, Didcot, Oxon
  56713. Tel/Fax : +44 235 44 6555 / +44 235 44 5727          | OX11 0QX , England
  56714.  
  56715.  
  56716.  
  56717. Approved: parallel@hubcap.clemson.edu
  56718. Follow-up: comp.parallel
  56719. Path: bounce-back
  56720. Newsgroups: comp.parallel
  56721. From: jwkhong@csd.uwo.ca (James W. Hong)
  56722. Subject: CFP (3rd): International Conference on Computing and Information (ICCI'94)
  56723. Organization: Dept. of Computer Science, University of Western Ontario
  56724.  
  56725.  
  56726.                CALL FOR PAPERS
  56727.             *********************
  56728.  
  56729.                ICCI'94
  56730.  
  56731.       6th INTERNATIONAL CONFERENCE ON COMPUTING AND INFORMATION
  56732.  
  56733.              May 26 - 28 , 1994
  56734.  
  56735.               Trent University
  56736.  
  56737.            Peterborough, Ontario Canada
  56738.  
  56739. *****************************************************************************
  56740.  
  56741. Keynote Address: "Text Databases"
  56742.      Professor Frank Tompa
  56743.      Director, Centre for the New Oxford English Dictionary and Text Research
  56744.      University of Waterloo, Canada
  56745.  
  56746. *****************************************************************************
  56747.  
  56748. Steering Committee: Waldemar W. Koczkodaj, Laurentian University, Canada (Chair)
  56749.                     S.K. Micheal Wong, University of Regina, Canada
  56750.                     R.C. Kick, Technological University of Tennessee, USA
  56751.  
  56752. *****************************************************************************
  56753.  
  56754. General Chair: Pradip Srimani, Colorado State University, USA
  56755.  
  56756. Organizing Committee Chair: Richard Hurley, Trent University, Canada
  56757.  
  56758. Program Committee Chair: David Krumme, Tufts University, USA 
  56759.  
  56760. Public Relations Chair: James Hong, University of Western Ontario, Canada
  56761.  
  56762. ******************************************************************************
  56763.  
  56764. ICCI'94 will be an international forum for presentation of new results in
  56765. research, development, and applications in computing and information. The
  56766. organizers expect both practitioners and theorists to attend.
  56767.  
  56768. The conference will be organized in 5 streams:
  56769.  
  56770. Stream A: Data Theory and Logic, Information and Coding Theory
  56771.       Theory of Programming, Algorithms, Theory of Computation
  56772. Stream B: Distributed Computing and Communication
  56773. Stream C: Concurrency and Parallelism
  56774. Stream D: AI Methodologies, Expert Systems, Knowledge Engineering, and Machine
  56775.       Learning
  56776. Stream E: Software and Data Engineering, CASE Methodology, Database,
  56777.       Information Technology
  56778.  
  56779.  
  56780. Authors are invited to submit five copies of their manuscript to the
  56781. appropriate Stream Chair by the submission deadline.  Papers should be written
  56782. in English, and contain a maximum of 5000 words. Each paper should include
  56783. a short abstract and a list of keywords indicating subject classification.
  56784.  
  56785. Please note that a blind review process will be used to evaluate submitted
  56786. papers.  Authors' names and institutions should be identified only on a
  56787. cover page that can be detached.  No information that clearly identifies
  56788. the authorship of the paper should be included in the body.
  56789.  
  56790. Authors of accepted papers will be asked to prepare the final version
  56791. according to the publisher's requirements.  It is expected this year's
  56792. proceedings will again be published by IEEE Computer Society Press or will
  56793. make the premier issue of a new CD-ROM journal Journal of Computing
  56794. and Information.
  56795.  
  56796.  
  56797. Stream Chairs:
  56798. *************
  56799.  
  56800. STREAM A:
  56801. ========
  56802.  Si-Qing Zheng
  56803.  Dept. of Computer Science
  56804.  Louisiana State University
  56805.  Baton Rouge, LA, USA 70803-4020
  56806.  Fax:   504-388-1465
  56807.  Email: zheng@bit.csc.lsu.edu
  56808.  
  56809.  Email Contact: Anil Shende (shende@dickinson.edu)
  56810.  
  56811.  
  56812. STREAM B:
  56813. ========
  56814.  H. Douglas Dykeman,
  56815.  IBM Zurich Research Lab
  56816.  Saeumerstrasse 4
  56817.  8803 Rueschlikon
  56818.  Switzerland
  56819.  Fax: 41-1-710-3608
  56820.  Email: ddy@zurich.ibm.com
  56821.  
  56822.  Email Contact: Bart Domzy (csbcd@blaze.trentu.ca)
  56823.  
  56824. STREAM C:
  56825. ========
  56826.  Eric E. Johnson
  56827.  Parallel Architecture Research Lab
  56828.  Electrical & Computer Engineering
  56829.  Thomas & Brown 106
  56830.  Las Cruces, NM, USA 88003-0001
  56831.  Fax: (505) 646-1435
  56832.  Email: ejohnson@nmsu.edu
  56833.  
  56834.  Email Contact: Reda Ammar (reda@cse.uconn.edu)
  56835.  
  56836. STREAM D:
  56837. ========
  56838.  Maria E. Orlowska
  56839.  Computer Science
  56840.  The University of Queensland
  56841.  Brisbane Q 4072
  56842.  Australia
  56843.  Fax:  61-7-365 1999
  56844.  Email: maria@cs.uq.oz.au
  56845.  
  56846.  Email Contact: Mike Herman (mwherman@nickel.laurentian.ca)
  56847.  
  56848. STREAM E:
  56849. ========
  56850.  Shing-Tsaan Huang
  56851.  Department of Computer Science
  56852.  National Tsing-Hua University
  56853.  HsinChu, TAIWAN (30043)
  56854.  Fax: 886-35-723694
  56855.  Email: sthuang@nthu.edu.tw
  56856.  
  56857.  Email Contact: Ken Barker (barkerk@cpsc.ucalgary.ca)
  56858.  
  56859.  
  56860.  
  56861. Program Committee:
  56862. =================
  56863.  
  56864. Chair: David Krumme, Tufts University, USA
  56865. J. Abello, Texas A&M U., USA
  56866. O. Abou-Rabia, Laurentian U., Canada
  56867. K. Abrahamson, E. Carolina U., USA
  56868. M. Aoyama, Fujitsu Limited, Japan
  56869. L.G. Birta, U. Ottawa, CANADA
  56870. J.P. Black, U. Waterloo, Canada
  56871. D.L. Carver, Louisiana State U., USA
  56872. C.-C. Chan, U. Akron, USA
  56873. S. Chen, U. Illinois, Chicago, USA
  56874. V. Dahl, Simon Fraser U., Canada
  56875. S.K. Das, U. North Texas, USA
  56876. A.K. Datta, U. Nevada, Las Vegas, USA
  56877. W.A. Doeringer, IBM Res. Lab., Zurich, Switzerland
  56878. D.-Z. Du, U. Minnesota, USA
  56879. E. Eberbach, Acadia University, Canada
  56880. A.A. El-Amawy, Louisiana State U., USA
  56881. D.W. Embley, Brigham Young U., USA
  56882. W.W. Everett, AT&T Bell Labs., USA
  56883. A. Ferreira, CNRS-LIP, France 
  56884. I. Guessarian, Paris 6 U., France
  56885. J. Harms, U. Alberta, Canada
  56886. S.Y. Itoga, U. Hawaii, USA
  56887. J.W. Jury, Trent U., Canada
  56888. M. Kaiserswerth, IBM Res. Lab., Zurich, Switzerland
  56889. M. Li, U. Waterloo, Canada
  56890. M.K. Neville, Northern Arizona U., USA
  56891. P. Nijkamp, Free U. Amsterdam, The Netherlands
  56892. K. Psarris, Ohio U., USA
  56893. P.P. Shenoy, U. Kansas, USA
  56894. G. Sindre, Norwegian Inst. Technology, Norway
  56895. R. Slowinski, Technical U. Poznan, Poland
  56896. M.A. Suchenek, Cal. State U., Dominguez Hills, USA
  56897. V. Sunderam, Emory U., USA
  56898. R.W. Swiniarski, San Diego State U., USA
  56899. A.M. Tjoa, U. Vienna, Austria
  56900. R. Topor, Griffith U., Australia
  56901. A.A. Toptsis, York U., Canada 
  56902. C. Tsatsoulis, U. Kansas, USA
  56903. W.D. Wasson, U. New Brunswick, Canada
  56904. L. Webster, NASA/Johnson Space Center, USA
  56905. E.A. Yfantis, U. Nevada, Las Vegas, USA
  56906. Y. Zhang, U. Queensland, Australia
  56907.  
  56908.  
  56909. =*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=*=
  56910.  
  56911. DEADLINES
  56912.  
  56913. Jan. 17, 1994 (Mon) Paper submission deadline to the appropriate Stream Chair
  56914. Mar. 15, 1994 (Tue) Email Notification of acceptance
  56915. May 26, 1994 (At the conf.) final version due
  56916. =========================================================================
  56917.  
  56918. For further information, please contact:
  56919.  
  56920. Richard Hurley
  56921. Organizing Committee Chairman
  56922. Computer Studies Program
  56923. Trent University
  56924. Peterborough, ON, Canada
  56925. K9J 7B8
  56926.  
  56927. Phone:  (705) 748-1542
  56928. Fax:    (705) 748-1625
  56929. Email: icci@flame1.trentu.ca
  56930.  
  56931.  
  56932. Approved: parallel@hubcap.clemson.edu
  56933. Follow-up: comp.parallel
  56934. Path: bounce-back
  56935. Newsgroups: comp.parallel
  56936. From: rzantout@magnus.acs.ohio-state.edu (Rached N Zantout)
  56937. Subject: difficulties using cread() on the Delta
  56938. Organization: The Ohio State University
  56939.  
  56940. Hello,
  56941. I just started using the Delta machine, and I am finding difficulties
  56942. using the cread (or iread) command.
  56943.  
  56944. My data file look like:
  56945. 1.0000000E+00
  56946. 2.0000000E+00
  56947. 2.0000000E+00
  56948. 3.0000000E+00
  56949. 4.0000000E+00
  56950. 1.0000000E+00
  56951. 1.0000000E+00
  56952. 5.0000000E+00
  56953. 6.0000000E+00
  56954. 2.0000000E+00
  56955. 3.0000000E+00
  56956. 4.0000000E+00
  56957. 1.0000000E+00
  56958. 2.0000000E+00
  56959.  
  56960. Approved: parallel@hubcap.clemson.edu
  56961. Follow-up: comp.parallel
  56962. Path: bounce-back
  56963. Newsgroups: comp.parallel,comp.lang.fortran,comp.sys.super
  56964. From: forge@netcom.com (FORGE Customer Support)
  56965. Subject: FORTRAN PARALLELIZATION WORKSHOP FEB1-3
  56966. Keywords: FORTRAN PARALLEL
  56967. Organization: Applied Parallel Research, Inc. 
  56968.  
  56969. ===============================================================               
  56970. APR   Applied Parallel Research, Inc.  Workshop 1-3 February 94
  56971. ===============================================================
  56972.  
  56973.  
  56974.           PARALLEL PROCESSING IN FORTRAN --  WORKSHOP
  56975.                  Placerville, CA   1-3 February 1994 
  56976.  
  56977.  <<< Places are going fast -- There are still seats open >>>
  56978.           <<<  CALL soon to reserve your place  >>>
  56979.  
  56980. APR announces a three-day workshop on parallel processing techniques in
  56981. Fortran, and the use of APR's FORGE parallelization tools.
  56982.  
  56983. The instructors will be Gene Wagenbreth and John Levesque, Applied
  56984. Parallel Research, Inc.
  56985.  
  56986. Each day of the workshop includes time for individual and group
  56987. "hands-on" practice with APR's FORGE tools.  Participants are 
  56988. encouraged to bring their own programs to work on.
  56989.  
  56990. This workshop will also present APR's new batch tools, dpf and xhpf,
  56991. that have the capability of automatically parallelizing real Fortran
  56992. programs for distributed memory systems.
  56993.  
  56994.  
  56995. OUTLINE:
  56996.  
  56997. Day 1:  AM:  Intro to Parallel Processing
  56998.         o  Parallel architectures - SIMD & MIMD
  56999.         o  Memory architectures - Shared, Distributed, Multi-level
  57000.         o  Programming paradigms - Domain decomposition, SPMD
  57001.         o  Language issues - Fortran 77, 90, High Performance Fortran
  57002.         o  Performance measurement - profiling tools, parallel simulation
  57003.  
  57004.         PM:  Intro to FORGE 90
  57005.         o  Overview
  57006.         o  Source code browser
  57007.         o  Instrumenting serial programs
  57008.         o  Workshop using FORGE 90
  57009.  
  57010.  
  57011. Day 2:  AM:  Parallelizing for Distributed Memory using FORGE 90 (DMP and dpf)
  57012.         o  Data decomposition
  57013.         o  Loop distribution
  57014.         o  Using APR Directives in Fortran 77 Programs - dpf
  57015.         o  Using AutoMAGIC parallelization within dpf and xHPF 
  57016.         o  The programming model - SPMD paradigm
  57017.         o  Parallel Simulator
  57018.         o  Parallelization inhibitors/prohibitors
  57019.         o  Efficiency of transformations
  57020.         o  Problems and work-arounds
  57021.  
  57022.         PM:   Open Workshop using FORGE 90 DMP 
  57023.  
  57024.  
  57025. Day 3:  AM:  FORGE 90's High Performance Fortran Products - xhpf
  57026.         o  Overview
  57027.         o  HPF Data Distribution Directives
  57028.         o  Using HPF directives in Fortran 77 programs - xhpf
  57029.         o  Using HPF directives in Fortran 90 programs - xhpf
  57030.         o  Investigation of Parallelization Results using FORGE 90 DMP
  57031.         o  Using the Parallel Profiler with xhpf
  57032.  
  57033.         PM:  Open Workshop using FORGE 90 DMP, dpf and xhpf
  57034.            modules over IBM RS6K and HP/9000 workstations using PVM.
  57035.            Bring your own codes to work with on cartridge tape.  
  57036.            FTP access is available from our network.
  57037.  
  57038. -------------------------------------------------------------------------
  57039. Registration fee is $1000 ( $800 for FORGE 90 customers), and includes
  57040. materials and access to workstations running FORGE 90 and PVM.
  57041.  
  57042. Location is at the offices of Applied Parallel Research in 
  57043. Placerville, California, (45 miles east of Sacramento, near Lake Tahoe).
  57044. Classes run 9am to 5pm.  
  57045.  
  57046. Accommodations at Best Western Motel in Placerville can be arranged
  57047. through our office.
  57048.  
  57049. Contact:
  57050.                 Applied Parallel Research, Inc., 
  57051.                 550 Main St., Placerville, CA 95667 
  57052.                 
  57053.                 Voice:  916/621-1600.  Fax: -0593.  
  57054.                 Email:  forge@netcom.com
  57055.  
  57056. ==============================================================================
  57057.  
  57058.  
  57059. -- 
  57060.  ///  Applied  ///     FORGE 90 Customer Support Group
  57061.   ///  Parallel ///     550 Main St., Placerville, CA 95667
  57062.    ///  Research, Inc.   (916) 621-1600  621-0593fax     forge@netcom.com
  57063.  
  57064. Approved: parallel@hubcap.clemson.edu
  57065. Follow-up: comp.parallel
  57066. Path: bounce-back
  57067. Newsgroups: comp.parallel
  57068. From: stasko@cc.gatech.edu (John Stasko)
  57069. Subject: KSR program visualization package
  57070. Organization: College of Computing, Georgia Tech
  57071.  
  57072.         KSR Pthread Program Visualization
  57073.         =================================
  57074.  
  57075. Introduction
  57076. ------------
  57077.  
  57078.   We have developed a set of animation views (we call it Gthreads)
  57079.   for illustrating the execution of Pthread programs on the KSR-1. We
  57080.   now make the system available to all pthreads programmers. We hope
  57081.   that it will help you to develop and debug programs on the KSR-1.
  57082.   The views illustrate threads, their migration through a call graph,
  57083.   barriers, mutexes, etc.  We also hope that we can gather comments
  57084.   and ideas to improve it, and create more interesting animations.
  57085.   PLEASE feel free to ask any questions you may have.  We are eager to
  57086.   incorporate suggestions and recommendations about the animation
  57087.   library back into the system.
  57088.  
  57089. What you need
  57090. -------------
  57091.  
  57092.   Obviously, you will need access to a KSR machine in order to run
  57093.   your programs and gather trace information.  For the animation
  57094.   component, you need a UNIX workstation (we've only tested it on
  57095.   SPARCstations) running the X Window System and Motif, and you
  57096.   will need a C++ compiler that supports templates.
  57097.  
  57098. How to get it
  57099. -------------
  57100.  
  57101.   Gthreads is available via anonymous ftp from par.cc.gatech.edu.
  57102.   You must retrieve two files: gthread.KSRtracing.tar.Z and
  57103.   gthread.Animations.tar.Z.  The first goes to your KSR machine,
  57104.   and the second must go on your graphics workstation.  Once you
  57105.   retrieve the files from ftp, uncompress them, and then tar them
  57106.   out:
  57107.  
  57108. % ftp par.cc.gatech.edu
  57109. login: ftp
  57110. password: yourname@yoursite
  57111.  
  57112. > cd pub
  57113. > binary
  57114. > get README
  57115. > get gthread.KSRtracing.tar.Z
  57116. > get gthread.Animations.tar.Z
  57117. > quit
  57118.  
  57119. % uncompress gthread.KSRtracing.tar.Z
  57120. % tar xvf gthread.KSRtracing.tar
  57121. ...
  57122.  
  57123.  
  57124.   From that point, each distribution has a top level README file with
  57125.   instructions on how to proceed.  Again, if you need help, just ask.
  57126.  
  57127. General Information
  57128. -------------------
  57129.  
  57130.   Gthreads is implemented using the Polka animation package which is
  57131.   also available via anonymous ftp at the same site as above.  If you
  57132.   would like to design your own animation views or explore
  57133.   visualizations of concurrent programs some more, feel free to pick 
  57134.   up Polka.
  57135.  
  57136.   In return for the use of this software, all we ask is that you
  57137.   provide us with feedback on what you found good, bad, useful, not
  57138.   useful, and so on.  To be put on a mailing list about the system 
  57139.   or to just ask questions about Gthreads or Polka, please direct
  57140.   correspondence to John Stasko via the address below.
  57141.  
  57142. -------------------------------------------------------------------------
  57143. John Stasko, Assistant Professor              
  57144. Graphics, Viz., and Usability Center                phone: (404) 853-9386
  57145. College of Computing                                fax:   (404) 853-0673
  57146. Georgia Institute of Technology            Internet: stasko@cc.gatech.edu
  57147. Atlanta, Georgia  30332-0280                  uucp:  ...!gatech!cc!stasko
  57148.  
  57149.  
  57150.  
  57151. Approved: parallel@hubcap.clemson.edu
  57152. Follow-up: comp.parallel
  57153. Path: bounce-back
  57154. Newsgroups: comp.parallel
  57155. From: hum@doe.carleton.ca (Harvey J. Hum)
  57156. Subject: DSP libraries for iWarp board from intel ?
  57157. Organization: Carleton University
  57158. Date: Wed, 5 Jan 1994 21:32:56 GMT
  57159.  
  57160. Does anyone have any DSP libraries for the intel iWarp board or
  57161. knows of anyone who uses this board ? I know that Carnegie Mellon University
  57162. in Pennsylvania has these boards as well. Does anyone have an e-mail for 
  57163. this university ?
  57164.  
  57165. please e-mail your responses to hum@doe.carleton.ca.
  57166.  
  57167. thanks in advance for your help.
  57168.  
  57169. H.Hum
  57170.  
  57171. Approved: parallel@hubcap.clemson.edu
  57172. Follow-up: comp.parallel
  57173. Path: bounce-back
  57174. Newsgroups: comp.parallel
  57175. From: rks@csd.unsw.OZ.AU (Russell Standish)
  57176. Subject: Re: Need help: host/node programming on CM-5 us
  57177. Reply-To: rks@csd.unsw.OZ.AU
  57178. Organization: University of New South Wales, Australia
  57179. References: <1993Dec28.152940.19138@hubcap.clemson.edu>
  57180.  
  57181. > When I ried to link withh cmmd-ld, it gave a bunch of errors namely _main 
  57182. > multiply defined and some unresolved externals like CMM_enable.
  57183. >Could someone please enlighten me regarding use of this linker for PVM program?
  57184.  
  57185. cmmd-ld is actually a script which calls ld several times and awk. Perhaps the best way to see how it works is examine the script.
  57186.  
  57187. Hope this helps
  57188.  
  57189. ---
  57190.  
  57191.  
  57192. --------------------------------------------------------
  57193. Dr. Russell Standish            Parallel Programming Consultant
  57194. System Software Unit,
  57195. Computer Services Department,   Room 1410, Library Tower
  57196. University of NSW        Phone 697 2855
  57197. PO Box 1, Kensington, 2033    Fax   662 8665
  57198. Australia                       R.Standish@unsw.edu.au
  57199.  
  57200.  
  57201. Approved: parallel@hubcap.clemson.edu
  57202. Follow-up: comp.parallel
  57203. Path: bounce-back
  57204. Newsgroups: comp.parallel
  57205. From: das@ponder.csci.unt.edu (Sajal Das)
  57206. Subject: CALL FOR PAPERS
  57207. Date: 6 Jan 1994 00:21:42 GMT
  57208. Organization: University of North Texas, Denton
  57209. Summary: Special Issue on Parallel Algorithms and Architectures
  57210.  
  57211.  
  57212.  
  57213.                          *******************
  57214.                          * CALL FOR PAPERS *
  57215.                          *******************
  57216.  
  57217.               JOURNAL OF COMPUTER & SOFTWARE ENGINEERING
  57218.              --------------------------------------------
  57219.            SPECIAL ISSUE on PARALLEL ALGORITHMS & ARCHITECTURES 
  57220.               (Tentative Publication Date: January 1995)
  57221.  
  57222.  
  57223. Due to fundamental physical limitations on processing speeds of
  57224. sequential computers, the future-generation high performance 
  57225. computing environment will eventually rely entirely on exploiting 
  57226. the inherent parallelism in problems and implementing their 
  57227. solutions on realistic parallel machines.  Just as the processing
  57228. speeds of chips are approaching their physical limits, the need 
  57229. for faster computations is increasing at an even faster rate. 
  57230. For example, ten years ago there was virtually no general-purpose 
  57231. parallel computer available commercially. Now there are several 
  57232. machines, some of which have received wide acceptance due to 
  57233. reasonable cost and attractive performance. The purpose of this 
  57234. special issue is to focus on the desgin and analysis of efficient 
  57235. parallel algorithms and their performance on different parallel 
  57236. architectures. We expect to have a good blend of theory and practice.
  57237. In addition to theoretical papers on parallel algorithms, case studies 
  57238. and experience reports on applications of these algorithms in real-life 
  57239. problems are especially welcome. Example topics include, but are not 
  57240. limited to, the following:
  57241.  
  57242. Parallel Algorithms and Applications. 
  57243. Machine Models and Architectures. 
  57244. Communication, Synchronization and Scheduling.  
  57245. Mapping Algorithms on Architectures.
  57246. Performance Evaluation of Multiprocessor Systems.  
  57247. Parallel Data Structures. 
  57248. Parallel Programming and Software Tools. 
  57249.  
  57250. ***********************************************************************
  57251. Please submit SEVEN copies of your manuscript to either of the        *
  57252. Guest Editors by May  1, 1994:                                        *
  57253.                                                                       *
  57254. ***********************************************************************
  57255. Professor Sajal K. Das           ||  Professor Pradip K. Srimani      *
  57256. Department of Computer Science   ||  Department of Computer Science   *
  57257. University of North Texas        ||  Colorado State University        *
  57258. Denton, TX 76203                 ||  Ft. Collins, CO 80523            *
  57259. Tel: (817) 565-4256, -2799 (fax) ||  Tel: (303) 491-7097, -6639 (fax) *
  57260. Email: das@cs.unt.edu            ||  Email: srimani@CS.ColoState.Edu  *
  57261. ***********************************************************************
  57262.  
  57263.  
  57264. INSTRUCTIONS FOR SUBMITTING PAPERS: 
  57265.  
  57266. Papers should be 20--30 double spaced pages including figures, tables 
  57267. and references. Papers should not have been previously published, nor 
  57268. currently submitted elsewhere for publication. Papers should include a 
  57269. title page containing title, authors' names and affiliations, postal and 
  57270. e-mail addresses, telephone numbers and Fax numbers. Papers should
  57271. include a 300-word abstract.
  57272.  
  57273. If you are willing to referee papers for this special issue, please send
  57274. a note with research interest to either of the guest editors. 
  57275.  
  57276.  
  57277.  
  57278. Approved: parallel@hubcap.clemson.edu
  57279. Follow-up: comp.parallel
  57280. Path: bounce-back
  57281. Newsgroups: comp.parallel
  57282. From: cappello@cs.ucsb.edu (Peter Cappello)
  57283. Subject: ASAP'94: Call for papers
  57284. Date: 6 Jan 1994 02:01:48 GMT
  57285. Organization: University of California, Santa Barbara
  57286.  
  57287.                         A S A P '94
  57288.  
  57289.       INTERNATIONAL CONFERENCE ON APPLICATION-SPECIFIC
  57290.                       ARRAY PROCESSORS
  57291.  
  57292.                      22-24 August 1994
  57293.                      The Fairmont Hotel
  57294.                        San Francisco
  57295.  
  57296.                 Sponsored by the IEEE Computer Society
  57297.  
  57298.  
  57299.      ASAP'94 is an international conference on  application-
  57300. specific   computing  systems.   This  conference's  lineage
  57301. traces back to the First International Workshop on  Systolic
  57302. Arrays  held  in Oxford, England, in July 1986, and has con-
  57303. tinued through the International Conference on  Application-
  57304. Specific  Array  Processors  held  in Venice, Italy, in Oct.
  57305. 1993.
  57306.  
  57307.      Areas for application-specific  computing  systems  are
  57308. many and varied.  Some samples areas follow: CAD tools; com-
  57309. putational biology, chemistry, geology,  pharmacology,  phy-
  57310. sics,  and  physiology; cryptography; data base, information
  57311. retrieval,  and  compression;  electronic  commerce;   high-
  57312. performance   networks;   medical  equipment;  robotics  and
  57313. prosthetics; signal and image processing.
  57314.  
  57315.      Aspects of application-specific computing systems  that
  57316. are of interest include, but are not limited to:
  57317.  
  57318.  - Application-specific architectures
  57319.  - Application-specific fault tolerance strategies
  57320.  - Application-specific test & evaluation strategies
  57321.  - CAD tools for application-specific systems
  57322.  - Design methodology for application-specific systems
  57323.  - Special-purpose systems for fundamental algorithms
  57324.  - Implementation methodology & rapid prototyping
  57325.  - Standard hardware components & software objects
  57326.  - Systems software: languages, compilers, operating systems
  57327.  
  57328.      The conference will present a balanced  technical  pro-
  57329. gram  covering  the  theory  and  practice  of  application-
  57330. specific computing systems.  Of particular interest are con-
  57331. tributions  that either achieve large performance gains with
  57332. application-specific  computing  systems,  introduce   novel
  57333. architectural concepts, present formal and practical methods
  57334. for the specification, design and evaluation of  these  sys-
  57335. tems, analyze technology dependencies and the integration of
  57336. hardware and software components, or describe  and  evaluate
  57337. fabricated systems.
  57338.  
  57339.      The conference will feature an opening keynote address,
  57340. technical  presentations,  a  panel  discussion,  and poster
  57341. presentations.  One of the poster sessions is  reserved  for
  57342. on-going projects and experimental systems.
  57343.  
  57344.  
  57345.                   INFORMATION FOR AUTHORS
  57346.  
  57347.      Please  send  5  copies  of  your  double-spaced  typed
  57348. manuscript  (maximum  5000 words) with an abstract to a Pro-
  57349. gram Co-Chair.  Your submission letter should indicate which
  57350. of  your  paper's areas are most relevant to the conference,
  57351. and which author is responsible  for  correspondence.   Your
  57352. paper  should  be  unpublished  and not under review for any
  57353. other conference or workshop.
  57354.  
  57355.      The Proceedings will be published by the IEEE  Computer
  57356. Society Press.
  57357.  
  57358.  
  57359.                CALENDAR OF SIGNIFICANT EVENTS
  57360.  
  57361. 18 Feb.  Deadline for receipt of papers.
  57362. 29 Apr.  Notification of authors.
  57363. 24 Jun.  Deadline for receipt of photo-ready paper.
  57364. 22 Aug.  Conference begins.
  57365.  
  57366.  
  57367.  
  57368.                      GENERAL CO-CHAIRS
  57369.  
  57370. Prof. Earl E. Swartzlander, Jr.       Prof. Benjamin W. Wah
  57371. e.swartzlander@compmail.com           wah@manip.crhc.uiuc.edu
  57372.  
  57373. Electrical & Computer Engineering     Coordinated Science Lab.
  57374. University of Texas                   University of Illinois
  57375. Austin, TX 78712                      1308 West Main Street
  57376.                                       Urbana, IL 61801
  57377.  
  57378. (512) 471-5923                        (217) 333-3516
  57379. (512) 471-5907 (Fax)                  (217) 244-7175 (Fax)
  57380.  
  57381.  
  57382.                      PROGRAM CO-CHAIRS
  57383.  
  57384. Prof. Peter Cappello                  Prof. Robert M. Owens
  57385. cappello@cs.ucsb.edu                  owens@cse.psu.edu
  57386.  
  57387. Computer Science                      Computer Science & Engineering
  57388. University of California              Pennsylvania State Univ.
  57389. Santa Barbara, CA 93106               University Park, PA 16802
  57390.  
  57391. (805) 893-4383                        (814) 865-9505
  57392. (805) 893-8553 (Fax)                  (814) 865-3176 (Fax)
  57393.  
  57394.  
  57395.  
  57396.                  EUROPEAN PUBLICITY CHAIR
  57397.  
  57398. Prof. Vincenzo Piuri
  57399. e-mail piuri@ipmel1.polimi.it
  57400.  
  57401. Dept. of Electronics and Information
  57402. Politecnico di Milano
  57403. p.za L. da Vinci 32
  57404. I-20133 Milano, Italy
  57405.  
  57406. +39-2-23993606 
  57407. +39-2-23993411 (Fax)
  57408.  
  57409. Please forward this Call to all interested parties.
  57410.  
  57411.